Як діпфейки можуть призвести до Судного дня
З початку ядерної ери політики та стратеги намагалися запобігти помилковому розгортанню ядерної зброї. Але потенціал для цієї небезпеки залишається таким же високим, як і під час холодної війни. А можливо, навіть вищим, пише Ерін Дамбахер у статті для Foreign Affairs. Він також стверджує, що американські системи ядерного попередження не готові до штучного інтелекту.
У 1983 році радянська система раннього попередження помилково вказала, що США завдають ядерного удару по Радянському Союзу. Таке попередження могло б спровокувати катастрофічну радянську контратаку. Цього вдалося уникнути лише тому, що черговий командир Станіслав Петров визначив, що тривога була хибною. Якби цього не сталося, радянське керівництво мало б підстави застосувати найруйнівнішу у світі зброю по Сполучених Штатах.
Швидке поширення штучного інтелекту загострило загрози ядерній стабільності. Одне з побоювань полягає в тому, що держава, яка володіє ядерною зброєю, може делегувати рішення про використання ядерної зброї комп’ютерам. Однак Сполучені Штати запровадили запобіжні заходи, щоб люди продовжували приймати остаточне рішення щодо того, чи завдавати удару. Згідно з Національною оборонною стратегією 2022 року, людина залишатиметься «в курсі» будь-яких рішень щодо використання або припинення використання ядерної зброї. А президент США Джо Байден і китайський лідер Сі Цзіньпін у двох заявах погодилися, що «повинен бути контроль людини над рішенням про використання ядерної зброї».
Однак штучний інтелект становить ще одну підступну загрозу для ядерної безпеки. Він полегшує створення та поширення діпфейків – переконливо змінених відео, зображень чи аудіо, які використовуються для генерування неправдивої інформації про людей чи події. І ці методи стають дедалі складнішими.
Через кілька тижнів після вторгнення Росії в Україну у 2022 році широко поширений діпфейк показав, як Президент України Володимир Зеленський наказує українцям покласти зброю. У 2023 році діпфейк змусив людей помилково повірити, що президент росії владімір путін перервав державне телебачення, щоб оголосити тотальну мобілізацію. У більш екстремальному сценарії діпфейк може переконати лідера держави, що має ядерну зброю, що перший удар з боку супротивника вже триває, або розвідувальна платформа, що підтримується штучним інтелектом, може викликати хибну тривогу про мобілізацію або навіть атаку брудною бомбою з боку супротивника.
Адміністрація Трампа хоче використовувати штучний інтелект для національної безпеки. У липні вона опублікувала план дій, який закликає до «агресивного» використання ШІ в Міністерстві оборони. У грудні міністерство представило GenAI.mil, платформу з інструментами ШІ для співробітників.
Але оскільки адміністрація впроваджує ШІ в інфраструктуру національної безпеки, для політиків та розробників систем буде надзвичайно важливо бути обережними щодо ролі, яку машини відіграють на ранніх етапах прийняття рішень у ядерній галузі. Доки інженери не зможуть запобігти проблемам, властивим ШІ, таким як галюцинації та спуфінг, коли великі мовні моделі передбачають неточні закономірності або факти, уряд США повинен забезпечити, щоб люди продовжували контролювати системи раннього попередження про ядерну загрозу. Інші держави, що володіють ядерною зброєю, повинні зробити те саме.
Каскадні кризи
Сьогодні президент Дональд Трамп використовує телефон для доступу до діпфейків; він іноді репостить їх у соціальних мережах, як і багато його близьких радників. Оскільки межі між реальною та фейковою інформацією розмиваються, зростає ймовірність того, що такі діпфейки можуть вплинути на важливі рішення щодо національної безпеки, зокрема щодо ядерної зброї.
Якщо дезінформація може ввести президента США в оману навіть на кілька хвилин, це може призвести до катастрофи для світу. Згідно з законодавством США, президенту не потрібно ні з ким радитися, щоб віддати наказ про застосування ядерної зброї для атаки у відповідь або першого удару. Військові США готові розгорнути літаки, підводні човни та наземні ракети, що несуть ядерні боєголовки. Міжконтинентальна балістична ракета США може досягти цілі протягом півгодини, і після запуску такої ракети ніхто не може її відкликати.
Діпфейки можуть допомогти створити приводи для війни.
Ядерні сили як США, так і росії готові до «запуску за попередженням», що означає, що вони можуть бути розгорнуті, щойно буде виявлено ворожі ракети, що рухаються в їхньому напрямку. Це залишає лідеру лише кілька хвилин, щоб оцінити, чи розпочався ядерний напад супротивника. (Згідно з чинною політикою США, президент має можливість відкласти прийняття рішення до моменту, коли ядерна зброя супротивника вразить Сполучені Штати.)
Якщо система раннього попередження США виявить загрозу для Сполучених Штатів, американські чиновники спробують перевірити атаку, використовуючи як секретні, так і несекретні джерела. Вони можуть переглянути супутникові дані щодо активності на відомих військових об'єктах, відстежувати нещодавні заяви іноземних лідерів та перевіряти соціальні мережі та іноземні джерела новин на предмет контексту та інформації з місця подій. Військові офіцери, державні службовці та політичні призначенці повинні вирішити, яку інформацію передавати по ланцюжку та як вона подається.
Дезінформація, спричинена штучним інтелектом, може спровокувати каскадні кризи. Якщо системи штучного інтелекту використовуються для інтерпретації даних раннього попередження, вони можуть галюцинувати атаку, яка не є реальною, що ставить американських чиновників у становище, подібне до того, в якому опинився радянський офіцер Петров чотири десятиліття тому.
Оскільки внутрішня логіка систем штучного інтелекту непрозора, люди часто залишаються в невіданні щодо того, чому штучний інтелект дійшов певного висновку. Дослідження показують, що люди із середнім рівнем знайомства зі штучним інтелектом схильні покладатися на машинні виводи, а не перевіряти наявність упередженості чи хибнопозитивних результатів, навіть коли йдеться про національну безпеку. Без широкого навчання, інструментів та операційних процесів, які враховують слабкі сторони штучного інтелекту, радники осіб, що приймають рішення в Білому домі, можуть за замовчуванням припускати, або принаймні розглядати можливість того, що контент, створений штучним інтелектом, є точним.
Діпфейки, що поширюються у відкритих ЗМІ, майже такі ж небезпечні. Після перегляду діпфейкового відео американський лідер може, наприклад, неправильно витлумачити російські ракетні випробування як початок наступальних ударів або помилково сприйняти китайські бойові стрільби як напад на союзників США. Діпфейки можуть допомогти створити приводи для війни, заручитися громадською підтримкою конфлікту або посіяти плутанину.
Критичний погляд
У липні адміністрація Трампа опублікувала план дій щодо штучного інтелекту, який закликав до активного впровадження інструментів штучного інтелекту в Міноборони, найбільшій бюрократичній системі світу. ШІ виявився корисним для підвищення ефективності деяких частин військових сил. Машинне навчання спрощує планування технічного обслуговування ракетних есмінців. Технологія штучного інтелекту, вбудована в автономні боєприпаси, такі як безпілотники, може дозволити солдатам залишатися осторонь від лінії фронту. А інструменти перекладу на основі ШІ допомагають розвідникам аналізувати дані про іноземні країни. ШІ може бути корисним навіть у деяких інших стандартних завданнях збору розвідувальних даних, таких як виявлення відмінностей між зображеннями бомбардувальників, розташованих на аеродромах, від одного дня до наступного.
Впровадження ШІ у військових системах не обов'язково має бути принципом «все або нічого». Існують сфери, які мають бути заборонені для ШІ, включаючи системи раннього ядерного попередження та командування і управління, де ризики галюцинацій та спуфінгу переважають позитивні результати, які може принести програмне забезпечення на базі ШІ.
Найкращі системи ШІ побудовані на перевірених та вичерпних наборах даних. Системам раннього ядерного попередження бракує і того, і іншого, оскільки з часів атак на Хіросіму та Нагасакі не було жодних ядерних атак. Будь-яка система виявлення ядерних об'єктів на основі ШІ, ймовірно, повинна буде навчатися на існуючих даних про випробування ракет та космічних даних, а також на синтетичних даних. Інженерам доведеться програмувати захист від галюцинацій або неточних оцінок достовірності – суттєвих технічних перешкод.
Може виникнути спокуса замінити перевірки, що проводяться висококваліфікованим персоналом, інструментами штучного інтелекту або використовувати ШІ для об'єднання різних джерел даних для пришвидшення аналізу. Але видалення критично важливого людського ока може призвести до помилок, упередженості та непорозумінь. Так само, як Міністерство оборони вимагає змістовного людського контролю над автономними дронами, воно також повинно вимагати, щоб кожен елемент технології раннього попередження та розвідки ядерної зброї відповідав іще вищим стандартам. Інструменти інтеграції даних штучного інтелекту не повинні замінювати операторів-людей, які повідомляють про балістичні ракети, що наближаються. Зусилля щодо підтвердження раннього попередження про запуск ядерної зброї за даними супутників або радарів повинні залишатися лише частково автоматизованими. А учасники критично важливих телефонних конференцій з питань національної безпеки повинні розглядати лише перевірені та незмінені дані.
У липні 2025 року Міністерство оборони відправило запит у Конгрес на кошти для застосування нових технологій до ядерного командування, управління та зв'язку. Уряду США найкраще обмежити інтеграцію штучного інтелекту та автоматизації кібербезпекою, бізнес-процесами та аналітикою, а також простими завданнями – такими, як забезпечення резервного живлення за потреби.
Вінтажна стратегія
Сьогодні небезпека ядерної війни більша, ніж була за останні десятиліття. росія погрожувала застосувати ядерну зброю в Україні, Китай швидко розширює свій арсенал, Північна Корея тепер має можливість запускати міжконтинентальні балістичні ракети по Сполучених Штатах, а політика запобігання розповсюдженню зброї є нестабільною. На цьому тлі ще важливіше забезпечити, щоб люди, а не машини, навчені працювати з поганими або неповними даними, оцінювали дії, наміри та цілі супротивника.
Розвідувальним службам необхідно покращити відстеження походження інформації, отриманої за допомогою штучного інтелекту, та стандартизувати спосіб передачі інформації політикам, коли дані доповнюються або синтезуються. Наприклад, коли Національне агентство геопросторової розвідки використовує ШІ для генерування розвідувальних даних, воно додає до звіту розкриття інформації, якщо контент згенеровано машиною. Аналітики розвідки, політики та їхні співробітники повинні пройти навчання, щоб застосовувати додатковий скептицизм та перевірку фактів до контенту, який не можна одразу перевірити, так само, як багато компаній зараз пильно ставляться до кіберфішингу. А розвідувальним службам потрібна довіра політиків, які можуть бути більш схильні вірити тому, що їм говорять власні очі та пристрої – правді чи брехні – ніж тому, що дає оцінка розвідувальних даних.
Експерти та технологи повинні продовжувати працювати над пошуком способів маркування та уповільнення поширення шахрайської інформації, зображень та відео через соціальні мережі, що може впливати на політиків. Але враховуючи складність контролю за інформацією з відкритих джерел, тепер іще важливіше, щоб секретна інформація була точною.
Штучний інтелект вже може обманювати лідерів, змушуючи їх бачити атаку, якої насправді немає.
Оновлення адміністрацією Трампа концепції щодо ядерної позиції США в Національній оборонній стратегії повинна захистити від ймовірних та громіздких ризиків для ядерної зброї, пов'язаних з інформацією штучного інтелекту шляхом підтвердження того, що машина ніколи не прийматиме рішення про ядерний запуск без контролю людини. Як перший крок, усі держави, що володіють ядерною зброєю, повинні погодитися з тим, що рішення про використання ядерної зброї прийматимуть лише люди. Потім вони повинні покращити канали кризового зв'язку. Гаряча лінія для діалогу існує між Вашингтоном і москвою, але не між Вашингтоном і Пекіном.
Ядерна політика та позиція США мало змінилися з 1980-х років, коли лідери побоювалися, що Радянський Союз нападе несподівано. Тодішні політики не могли уявити, скільки дезінформації буде доставлено на персональні пристрої людей, які сьогодні відповідають за ядерну зброю. Як законодавча, так і виконавча гілки влади повинні переглянути політику щодо ядерної зброї, розроблену для часів холодної війни. Політики можуть, наприклад, вимагати від майбутніх президентів порадитися з лідерами Конгресу, перш ніж завдати першого ядерного удару, або вимагати певного часу для перевірки інформації, на якій ґрунтується рішення. Оскільки Сполучені Штати мають потужні варіанти другого удару, точність повинна мати перевагу над швидкістю.
Штучний інтелект вже має потенціал обманювати ключових осіб, які приймають рішення, та членів ядерного командування, змушуючи їх бачити атаку, якої насправді немає. У минулому лише справжній діалог та дипломатія запобігали непорозумінням між державами, що мають ядерну зброю. Політика та практика повинні захищати від згубних інформаційних ризиків, які зрештою можуть призвести до кінця світу.
Ерін Дамбахер, для Foreign Affairs
Відгуки
Немає відгуків.
Залишити коментар