Небезпека ШІ: як протидіяти нейромережам, що поширюють фейки
У процесі використання штучного інтелекту доволі швидко з’ясувалося, що він спокійнісінько може поширювати проросійські наративи чи фейки. Тож постає питання, як від цього убезпечитись і запобігти їх поширенню, а також якими інструментами можна регулювати розвиток ШІ.
Ці питання обговорювали 23 і 24 березня під час київського форуму «Штучний інтелект 2.0: регулювання та робота під час війни» експерти зі свободи медіа, прав людини, цифрової безпеки, а також юристи та журналісти-фактчекери.
ЗІФ вибрав найцікавіші моменти з деяких виступів, зокрема, під час сесії «За межею правди: штучний інтелект і дезінформація».
Деніз Вагнер, радниця офісу представника ОБСЄ з питань свободи медіа:
- Системи рекомендацій і таргетована реклама – це основні засоби, які дозволяють поширювати дезінформацію онлайн.
Треба враховувати права та зобов’язання того, хто створив діпфейк, особи, яка там зображена, власника авторських прав, розробника технології, платформи-посередника, яка використовує це для розповсюдження, а також користувачів платформи, які його завантажили та поділилися. Усіх цих людей варто брати до уваги.
Задля контрольованого розвитку штучного інтелекту в Європейському Союзі наразі розробляють Акт щодо його регулювання. Водночас вже чинними є Загальний регламент про захист даних (GDPR), Директиву Європейського парламенту та Ради ЄС щодо електронної комерції, рішення Європарламенту щодо діпфейків, Європейський акт про свободу мас-медіа. Вони регулюють діпфейки, дезінформацію та середовище, в якому їх розповсюджують.
Однак дезінформації мають перешкоджати не тільки законодавство, а й самі користувачі. Потрібні не лише регуляторна система та не лише цифрова грамотність. Як сказала правозахисниця Сьюзі Алегре: «Нам потрібна свобода думати, щоб штучний інтелект не обмежував наше абсолютне право на свободу думки». Свобода слова є необхідною, але недостатньою в реагуванні на дезінформацію, адже технології впливають на свободу думки, бо існують цілі компанії з дезінформації, які часто фінансуються державами».
Ігор Соловей, керівник Центру стратегічних комунікацій та інформаційної безпеки:
- Популярний чатбот ChatGPT може створювати дезінформаційні повідомлення, зокрема засновані на наративах кремлівської пропаганди, формулюючи відповідні запити. Протидія штучному згенерованому неправдивому контенту – це виклик, до якого готуватися потрібно було ще вчора.
Російські спецслужби мають досвід використання фото- та відеомонтажу для створення фейків і проведення інформаційно-психологічних операцій, і продовжують освоювати штучний інтелект. Наприклад, це було використано для створення фейкового відеозвернення президента Зеленського про капітуляцію, яке вкинули у березні 2022 року. Тоді через низьку якість цього продукту й оперативну реакцію держави і Президента, який особисто спростував цей фейк, відео не досягнуло своєї мети ні в Україні, ні за кордоном. Але можна прогнозувати, що росіяни на цьому не зупиняться і продовжать покращувати наявні інструменти, щоби проводити свою деструктивну діяльність.
Штучний інтелект може замінити частину людей, які працюють на російських фабриках тролів. Вони провокують конфлікти в соцмережах та створюють ілюзію масової підтримки кремлівських наративів. Замість тролів, які пишуть коментарі за методичками, це може робити штучний інтелект із використанням ключових слів і запропонованої йому лексики.
Створені за допомогою нейромереж зображення вже конкурують із реальними за рівнем яскравості й емоційності, і, вочевидь, цю практику використовуватимуть із метою дезінформації.
Розвиток штучного інтелекту випереджає створення запобіжників від його недоброчесного і зловмисного використання, а також формулювання політик щодо його регулювання. Тому співпраця українських урядових структур із біґтек-компаніями у напрямку протидії розповсюдженню дезінформації та ліквідації ботоферм має лише поглиблюватись.
Альона Романюк, засновниця проєкту «НотаЄнота» та фактчекерка:
- Загрозу становлять не згенеровані штучним інтелектом тексти, відео та фото, а саме їх поширення.
Коли російські пропагандисти використовують ChatGPT і поширюють фейки через ресурси-мільйонники, ми маємо загрозливу ситуацію. Для того, щоби спростувати та пояснити, що це неправда, треба неабиякий час. Особливо коли використовується частина правдивих фактів і частина неправдивих.
Я би хотіла натренувати нейромережі на розрізнення російської пропаганди, тих інструментів, які використовує Росія для запуску неправдивої інформації. Адже коли ти запитуєш ChatGPT, які є типи пропаганди стосовно України, він дає чіткий перелік. Але коли просиш його надати приклади, починається продукування відсебеньок ChatGPT. Тому його не можна використовувати для фактчекінгу. У нас є тисячі кейсів, аби натренувати нейромережу на розпізнавання фейків.
Що добре вдається штучному інтелекту, так це розпізнавання ботів і автоматизованої поведінки в соціальних мережах. Це допомагає у виявленні штучного просування тих чи інших наративів.
Тетяна Авдєєва, юристка Лабораторії цифрової безпеки:
- Варто розглядати дезінформацію не як тип контенту, а як шкідливу інформацію.
Наприклад, мова ворожнечі може бути просто мовою ворожнечі, а базуватися на неправдивих фактах. Так само і пропаганда війни може просуватися на якихось правдивих фактах, залишаючись нелегальною, але оперуючи правдивою історичною інформацією. А може базуватися на вигаданих фактах, перекручених концепціях, маніпуляціях.
Тобто при формуванні регуляторної рамки я б керувалася саме цим підходом – поширення вже забороненого контенту – це має бути кваліфікуюча ознака. Це означає, що особа або надзвичайно недбало ставиться до поширення певного типу контенту, або свідомо перекручувала чинні концепції.
Дуже важливо врегулювати це з технологічної точки зору, адже умовний ChatGPT може видавати дезінформацію за чисту монету, бо просто не може відфільтрувати, що є фейком, а що ні. Особливо, коли йдеться про дезінформацію, поширену живими людьми з якихось офіційних джерел або медіа. Має існувати не тільки рівень державного регулювання, а ще й рівень саморегулювання індустрії зокрема.
Але також варто дочекатись якихось міжнародних напрацювань, оскільки зробити це ізольовано навряд чи можливо.
Відгуки
Немає відгуків.
Залишити коментар