Остання версія моделі ChatGPT (GPT-5.2) почала цитувати Grokipedia — онлайн-енциклопедію Ілона Маска, створену штучним інтелектом. Тести, проведені виданням The Guardian, виявили, що чатбот посилається на це джерело під час відповідей на складні запитання.
Запущена в жовтні 2025 року, Grokipedia позиціонується як конкурент Wikipedia. На відміну від традиційної енциклопедії, її контент генерується виключно ШІ, а пряме редагування людьми неможливе. Платформу вже неодноразово критикували за просування праворадикальних наративів і викривлення фактів історичних подій.
Дослідження показало, що недостовірна інформація потрапляє у відповіді ChatGPT переважно в «маловідомих» або специфічних темах. Наприклад, ChatGPT повторював сумнівні твердження про зв'язки великих корпорацій з офісом верховного лідера Ірану, а також цитувала Grokipedia, поширюючи інформацію, яка вже була спростована фактчекерами.
Окрім ChatGPT, посилання на джерело Маска помітили й у роботі моделі Claude від компанії Anthropic.
Дослідники дезінформації вказують на небезпеку процесу, який називають «грумінгом ШІ-моделей» (LLM grooming). Це стратегія, за якої пропагандистські мережі, зокрема російські, генерують величезні обсяги фейків, аби «згодувати» їх алгоритмам і таким чином легітимізувати брехню.
«Люди можуть подумати: "Якщо ChatGPT цитує це джерело, значить, воно перевірене". І згодом вони можуть піти на ці ресурси шукати новини про війну в Україні, отримуючи натомість свідому дезінформацію», — застерігає Ніна Янкович, дослідниця дезінформації.
В OpenAI заявили, що їхній вебпошук спрямований на охоплення широкого спектра джерел і точок зору, а система має фільтри безпеки для обмеження шкідливого контенту. Своєю чергою, речник компанії xAI (власника Grokipedia) на запит про коментар відповів лаконічно: «Традиційні медіа брешуть».