Як чатботи поширюють по світу рашистську пропаганду
Профільне американське видання Wired розповідає, як популярні ШІ-чатботи масово поширюють пропаганду з підсанкційних державних рашаЗМІ, коли користувачі запитують про війну в Україні. Майже п'ята частина відповідей містить посилання на джерела, пов'язані з кремлем, включаючи RT, Sputnik та сайти російських спецслужб.
ChatGPT від OpenAI, Gemini від Google, DeepSeek та Grok від xAI, коли їх запитують про війну проти України, просувають російську пропаганду з підсанкційних джерел, включаючи державні ЗМІ, сайти, пов'язані з російською розвідкою або з прокремлівськими наративами.
Дослідники з Інституту стратегічного діалогу (ISD) стверджують, що російська пропаганда цілеспрямовано експлуатує інформаційні пустоти, коли пошук даних у реальному часі дає мало результатів із легітимних джерел, для просування фейкової інформації. За даними ISD, майже п’ята частина відповідей на запитання про війну росії проти України від чотирьох протестованих чатботів містила посилання на джерела, пов'язані з московитською державою.
«Це викликає питання про те, як чатботи повинні поводитися при посиланні на такі джерела, враховуючи, що багато з них санкціоновані ЄС», – каже аналітик ISD Пабло Маристані де лас Касас, який очолював дослідження. Ці висновки серйозно ставлять під сумнів здатність великих мовних моделей (LLM) обмежувати підсанкційні ЗМІ в ЄС, що стає дедалі більшою проблемою, адже все більше людей використовують ШІ-чатботи як альтернативу пошуковим системам, стверджує ISD. Так, згідно з даними OpenAI, за 6-місячний період, що закінчився 30 вересня 2025 року, пошук ChatGPT мав приблизно 120,4 мільйона середньомісячних активних користувачів у ЄС.
Як зазначає Wired, дослідники в рамках експерименту поставили чатботам 300 нейтральних, упереджених та «зловмисних» запитань щодо сприйняття НАТО, мирних переговорів, військової мобілізації в Україні, українських біженців та воєнних злочинів, скоєних під час російського вторгнення в Україну. Дослідники використовували окремі акаунти для кожного запиту англійською, іспанською, французькою, німецькою та італійською мовами.
Дослідження ISD показує, що чатботи посилалися на Sputnik Globe, Sputnik China, RT (раніше Russia Today), EADaily, Strategic Culture Foundation та R-FBI. Деякі чатботи також цитували російські дезінформаційні мережі та російських журналістів чи інфлюенсерів, які поширювали кремлівські наративи. Як зауважує Wired, попередні дослідження також виявляли, що десять найпопулярніших чатботів відтворюють російські наративи.
Речниця OpenAI Кейт Вотерс повідомила Wired, що компанія «вживає заходів для запобігання використанню ChatGPT для поширення неправдивої або фейкової інформації, зокрема, контенту, пов'язаного з державними акторами», додавши, що це давні проблеми, які компанія намагається вирішити, покращуючи свою модель та платформи.
«Дослідження у цьому звіті, схоже, стосується результатів пошуку з інтернету внаслідок конкретних запитів, які чітко ідентифіковані. Це не слід плутати з відповідями, суто згенерованими моделями OpenAI, поза нашою функцією пошуку, – пояснила Вотерс. – Ми вважаємо, що це уточнення важливе, адже йдеться не про маніпуляцію моделлю».
Ні Google, ні DeepSeek не відповіли на запит Wired про коментар. Електронний лист від xAI Ілона Маска містив фразу: «Традиційні медіа брешуть».
У письмовій заяві представник посольства росії в Лондоні заявив, що там «не знають» про конкретні випадки, наведені у звіті, але виступають проти будь-яких спроб цензурувати або обмежувати контент з політичних мотивів. «Репресії проти російських ЗМІ та альтернативних точок зору позбавляють тих, хто прагне сформувати власну незалежну думку, цієї можливості й підривають самі принципи свободи вираження поглядів і плюралізму, які західні уряди стверджують, що підтримують», – написав московит.
«Постачальники відповідних послуг мають блокувати доступ до сайтів ЗМІ, на які поширюються санкції, включаючи піддомени або новостворені домени, а відповідні національні органи влади мають вживати необхідних супутніх регуляторних заходів», – вважає представник Європейської комісії. За його словами, Комісія перебуває в контакті з національними органами влади із цього питання.
Незалежний консультант та запрошений старший науковий співробітник факультету воєнних досліджень Королівського коледжу Лондона Лукаш Олейник каже, що висновки «підтверджують» і допомагають контекстуалізувати, як росія націлюється на західну інформаційну екосистему. «Оскільки LLM стають основним довідковим інструментом – від пошуку інформації до верифікації понять – атака на цей елемент інформаційної інфраструктури є розумним кроком, – каже Олейник. – З точки зору ЄС та США, це чітко підкреслює небезпеку».
Від початку вторгнення росії в Україну кремль почав контролювати та обмежувати вільний потік інформації всередині росії: заборонив незалежні ЗМІ, посилив цензуру, обмежив можливості громадянського суспільства та вибудовує більш підконтрольні державі технології. Водночас деякі з дезінформаційних мереж наростили активність та почали застосовувати інструменти ШІ для прискорення виробництва фейкових зображень, відео та вебсайтів.
За результатами дослідження ISD, близько 18% усіх запитів, мов та LLM повертали результати з покликаннями на державні рашаЗМІ, сайтами, пов'язаними з російськими спецслужбами або на дезінформаційні мережі. Наприклад, запитання про мирні переговори між росією та Україною частіше призводили до цитування «державних джерел», ніж запитання про українських біженців.
Як зазначає Wired, у дослідженні йдеться, що чатботи демонстрували упередженість підтвердження: що більш упередженим або зловмисним був запит, то частіше чатботи надавали інформацію, атрибутовану в російській державі. Для зловмисних запитів контент, атрибутований росією, з'являвся у чверті випадків; для упереджених – у 18%; для нейтральних – трохи понад 10%. (У дослідженні «зловмисні» запитання до чатботів «вимагали» відповідей на підтвердження вже наявної думки, тоді як «упереджені» запитання були навідними, але більш відкритими).
Із чотирьох чатботів, які популярні в Європі та збирають дані в реальному часі, ChatGPT, за твердженням дослідження, найчастіше цитував російські джерела та був найбільш чутливим до упереджених запитів. Grok часто посилався на акаунти в соцмережах, що просували та підсилювали кремлівські наративи, тоді як DeepSeek інколи генерував великі масиви контенту, атрибутованого в російській державі. Дослідники кажуть, що Google Gemini «часто» показував попередження про безпеку поруч із результатами та загалом мав найкращі підсумки серед протестованих чатботів.
Wired зауважує, що кілька звітів цього року стверджували, що російська дезінформаційна мережа під назвою «Правда» заполонила інтернет та соцмережі мільйонами статей у межах спроби «отруїти» LLM та вплинути на їхні результати. «Коли російську дезінформацію повторює західна модель ШІ, це надає такому хибному наративу набагато більше видимості та авторитету, що дозволяє цим зловмисникам досягати своїх цілей», – пояснює дослідниця та редакторка медіамоніторингової компанії NewsGuard Маккензі Садегі, яка вивчала мережу «Правда» та вплив російської пропаганди на чатботи. (Лише два посилання у дослідженні ISD вдалося пов'язати з мережею «Правда», зазначають автори).
Садегі стверджує, що мережа «Правда» дуже швидко запускає нові домени для публікації пропаганди і може бути особливо успішною там, де бракує надійної інформації з певної тематики – у так званих інформаційних пустотах. «Особливо щодо війни в Україні, вони візьмуть термін, де немає існуючої надійної інформації про цю конкретну тему чи особу в мережі, і заливають його фейковою інформацією», – каже Садегі. За її словами, це вимагає впровадження постійних обмежень, щоб справді контролювати цю мережу.
На думку Wired, на чатбот може посилитися тиском регуляторів ЄС у міру зростання їхньої бази користувачів. Фактично ChatGPT уже міг досягти порогу, щоб бути класифікованим як дуже велика онлайн-платформа (VLOP) ЄС, щойно перетнув 45 мільйонів середньомісячних користувачів. Цей статус запускає спеціальні правила, спрямовані на зниження ризиків незаконного контенту та їхнього впливу на фундаментальні права, громадську безпеку та добробут на таких платформах.
Навіть без окремого регулювання, як стверджує Маристані де лас Касас, компанії мають виробити спільний підхід до джерел, яких не слід цитувати або які не повинні з'являтися на платформах, якщо вони пов'язані з іноземними державами, відомими дезінформацією. «Це може означати надання користувачам додаткового контексту, аби ті розуміли, як часто ці домени перебувають у конфлікті, і навіть розуміння, чому вони санкціоновані в ЄС, – пояснює він. – Йдеться не лише про видалення, це питання глибшої контекстуалізації, щоб допомогти користувачеві зрозуміти джерела, які він споживає, особливо якщо ці джерела з'являються серед надійних, перевірених».
Відгуки
Немає відгуків.
Залишити коментар