Небезпека ШІ: як протидіяти нейромережам, що поширюють фейки

АНАЛІТИКА 28.03.2023 Коментарі 0

У процесі використання штучного інтелекту доволі швидко з’ясувалося, що він спокійнісінько може поширювати проросійські наративи чи фейки. Тож постає питання, як від цього убезпечитись і запобігти їх поширенню, а також якими інструментами можна регулювати розвиток ШІ.

Ці питання обговорювали 23 і 24 березня під час київського форуму «Штучний інтелект 2.0: регулювання та робота під час війни» експерти зі свободи медіа, прав людини, цифрової безпеки, а також юристи та журналісти-фактчекери.

ЗІФ вибрав найцікавіші моменти з деяких виступів, зокрема, під час сесії «За межею правди: штучний інтелект і дезінформація».

Деніз Вагнер, радниця офісу представника ОБСЄ з питань свободи медіа:

- Системи рекомендацій і таргетована реклама – це основні засоби, які дозволяють поширювати дезінформацію онлайн.

Треба враховувати права та зобов’язання того, хто створив діпфейк, особи, яка там зображена, власника авторських прав, розробника технології, платформи-посередника, яка використовує це для розповсюдження, а також користувачів платформи, які його завантажили та поділилися. Усіх цих людей варто брати до уваги.

Задля контрольованого розвитку штучного інтелекту в Європейському Союзі наразі розробляють Акт щодо його регулювання. Водночас вже чинними є Загальний регламент про захист даних (GDPR), Директиву Європейського парламенту та Ради ЄС щодо електронної комерції, рішення Європарламенту щодо діпфейків, Європейський акт про свободу мас-медіа. Вони регулюють діпфейки, дезінформацію та середовище, в якому їх розповсюджують.

Однак дезінформації мають перешкоджати не тільки законодавство, а й самі користувачі. Потрібні не лише регуляторна система та не лише цифрова грамотність. Як сказала правозахисниця Сьюзі Алегре: «Нам потрібна свобода думати, щоб штучний інтелект не обмежував наше абсолютне право на свободу думки». Свобода слова є необхідною, але недостатньою в реагуванні на дезінформацію, адже технології впливають на свободу думки, бо існують цілі компанії з дезінформації, які часто фінансуються державами».

Ігор Соловей, керівник Центру стратегічних комунікацій та інформаційної безпеки:

- Популярний чатбот ChatGPT може створювати дезінформаційні повідомлення, зокрема засновані на наративах кремлівської пропаганди, формулюючи відповідні запити. Протидія штучному згенерованому неправдивому контенту – це виклик, до якого готуватися потрібно було ще вчора.

Російські спецслужби мають досвід використання фото- та відеомонтажу для створення фейків і проведення інформаційно-психологічних операцій, і продовжують освоювати штучний інтелект. Наприклад, це було використано для створення фейкового відеозвернення президента Зеленського про капітуляцію, яке вкинули у березні 2022 року. Тоді через низьку якість цього продукту й оперативну реакцію держави і Президента, який особисто спростував цей фейк, відео не досягнуло своєї мети ні в Україні, ні за кордоном. Але можна прогнозувати, що росіяни на цьому не зупиняться і продовжать покращувати наявні інструменти, щоби проводити свою деструктивну діяльність.

Штучний інтелект може замінити частину людей, які працюють на російських фабриках тролів. Вони провокують конфлікти в соцмережах та створюють ілюзію масової підтримки кремлівських наративів. Замість тролів, які пишуть коментарі за методичками, це може робити штучний інтелект із використанням ключових слів і запропонованої йому лексики.

Створені за допомогою нейромереж зображення вже конкурують із реальними за рівнем яскравості й емоційності, і, вочевидь, цю практику використовуватимуть із метою дезінформації. 

Розвиток штучного інтелекту випереджає створення запобіжників від його недоброчесного і зловмисного використання, а також формулювання політик щодо його регулювання. Тому співпраця українських урядових структур із біґтек-компаніями у напрямку протидії розповсюдженню дезінформації та ліквідації ботоферм має лише поглиблюватись.

Альона Романюк, засновниця проєкту «НотаЄнота» та фактчекерка:

- Загрозу становлять не згенеровані штучним інтелектом тексти, відео та фото, а саме їх поширення.

Коли російські пропагандисти використовують ChatGPT і поширюють фейки через ресурси-мільйонники, ми маємо загрозливу ситуацію. Для того, щоби спростувати та пояснити, що це неправда, треба неабиякий час. Особливо коли використовується частина правдивих фактів і частина неправдивих.

Я би хотіла натренувати нейромережі на розрізнення російської пропаганди, тих інструментів, які використовує Росія для запуску неправдивої інформації. Адже коли ти запитуєш ChatGPT, які є типи пропаганди стосовно України, він дає чіткий перелік. Але коли просиш його надати приклади, починається продукування відсебеньок ChatGPT. Тому його не можна використовувати для фактчекінгу. У нас є тисячі кейсів, аби натренувати нейромережу на розпізнавання фейків.

Що добре вдається штучному інтелекту, так це розпізнавання ботів і автоматизованої поведінки в соціальних мережах. Це допомагає у виявленні штучного просування тих чи інших наративів.

Тетяна Авдєєва, юристка Лабораторії цифрової безпеки:

- Варто розглядати дезінформацію не як тип контенту, а як шкідливу інформацію.

Наприклад, мова ворожнечі може бути просто мовою ворожнечі, а базуватися на неправдивих фактах. Так само і пропаганда війни може просуватися на якихось правдивих фактах, залишаючись нелегальною, але оперуючи правдивою історичною інформацією. А може базуватися на вигаданих фактах, перекручених концепціях, маніпуляціях.

Тобто при формуванні регуляторної рамки я б керувалася саме цим підходом – поширення вже забороненого контенту – це має бути кваліфікуюча ознака. Це означає, що особа або надзвичайно недбало ставиться до поширення певного типу контенту, або свідомо перекручувала чинні концепції.

Дуже важливо врегулювати це з технологічної точки зору, адже умовний ChatGPT може видавати дезінформацію за чисту монету, бо просто не може відфільтрувати, що є фейком, а що ні. Особливо, коли йдеться про дезінформацію, поширену живими людьми з якихось офіційних джерел або медіа. Має існувати не тільки рівень державного регулювання, а ще й рівень саморегулювання індустрії зокрема. 

Але також варто дочекатись якихось міжнародних напрацювань, оскільки зробити це ізольовано навряд чи можливо.

Support the project here:

DONATE

Відгуки

Немає відгуків.

Залишити коментар

Оцінити
Відправити

Copyright © 2017-2024 by ZahidFront. Powered by BDS-studio.com

Підпишіться на ЗІФ у Facebook: