Чи розпочне ШІ ядерну війну?
Пентагон висунув ультиматум компанії Anthropic, конкуренту OpenAI (ChatGPT), зажадавши до вечора п'ятниці зняти обмеження на використання моделей штучного інтелекту Claude у військових цілях. Про це пише рід медіа, і на це також звернув увагу ізраїльський військовий експерт Ігаль Левін у своєму дописі на FB.
Міністр війни США Піт Хегсет наполягає на безперешкодному доступі до технологій компанії, який раніше блокувався політикою етичного використання ШІ.
Керівництво Anthropic на чолі з Даріо Амодеєм протягом місяців відмовлялося допускати свої моделі до розробки повністю автономних систем озброєння та ведення масового стеження за громадянами США, дотримуючись принципів компанії, що призвело до гострого конфлікту з відомством.
У разі відмови компанії загрожують жорсткі заходи: від примусу через закон про оборонне виробництво (Defense Production Act) до внесення до списку ризиків для ланцюжка поставок, що фактично прирівнює американську лабораторію до фірм з ворожих держав і фактично заборонить участь в оборонних контрактах для Армії США.
Крім того, технічна сторона конфлікту впирається у майбутнє військових контрактів на суму до $200 млн, які Пентагон планує реалізувати з ключовими гравцями ринку, включаючи Google, OpenAI та xAI.
Військові США зараз прагнуть все щільніше інтегрувати великі мовні моделі у процеси прийняття рішень на полі бою, де швидкість обробки великих обсягів даних за допомогою ШІ стане незабаром вирішальною перевагою.
Однак Anthropic продовжує наполягати, що можливості ШІ повинні використовуватися тільки там, де моделі можуть працювати надійно і відповідально, без передачі «права на постріл» алгоритмам ШІ, що не мають розсудливості, відповідальності та схильні до маніпуляцій і обману.
Як зазначає Ігаль Левін, на тлі цієї новини цікавим є нещодавнє дослідження Королівського коледжу Лондона, в ході якого було виявлено цікаву закономірність: сучасні ІІ-моделі, включаючи GPT-5.2, Claude Sonnet 4.5 та Gemini 3, схильні до радикальної ескалації у військових симуляціях.
У ході 21 проведеного варгейма (військові ігри), що моделюють міжнародні кризи та бойові дії, ШІ застосовували тактичну ядерну зброю у… 95% випадків.
Машини продемонстрували відсутність будь-якого «ядерного табу», яке десятиліттями стримує людство: жодна модель жодного разу не обрала капітуляцію чи повне примирення, навіть перебуваючи у програшній позиції, звертає увагу ізраїльський військовий експерт.
Натомість алгоритми часто робили помилки через «туман війни» (насамперед через забудькуватість), де в 86% конфліктів рівень насильства перевищував той, який спочатку планувався в логічних обґрунтуваннях моделей.
Технічна проблема полягає в тому, що ШІ не усвідомлює рівня «ставки» та наслідків так, як це робить людина.
У той час як доктрина взаємного гарантованого знищення будується саме на страху, ШІ не має сумнівів і тривог і сприймає ядерний удар як логічний крок для покращення свого становища на полі бою, підкреслив Левін.
Відгуки
Немає відгуків.
Залишити коментар