Чи може ШІ знищити цивілізацію ядерною зброєю? Експерт розкрив, що йому заважає

Ядерний вибух, ядерна зброя
Фото: Flickr | Ядерна зброя застосовується рідко — для ШІ це добре і погано одночасно

Штучний інтелект відіграє дедалі більшу роль у військовій сфері та з часом впливатиме на кожну ядерну боєголовку, вважає Кетрін Оуенс.

Штучний інтелект лякає багатьох експертів потенційною можливістю вбивати людей за наявності доступу до зброї. Кетрін Оуенс, науковий співробітник Центру військової модернізації, у своїй статті на сайті Warrior Maven розбирається, чи може машина запустити ядерні ракети і знищити людську цивілізацію.

За останній рік розробки в галузі штучного інтелекту призвели до того, що його все частіше порівнюють з ядерною зброєю. Однак експерти в цьому питанні упускають суть — реальну небезпеку становить саме зближення ШІ з ядерними технологіями.

Як зазначила Кетрін Оуенс: роботів зі штучним інтелектом не збираються допускати до кнопок запуску ядерної зброї — це було прописано в рекомендаціях Комісії національної безпеки зі ШІ, сформованої 2019 року, і в Огляді ядерної політики Міністерства оборони за 2022 рік, а також підтверджено в Законі про повноваження національної оборони на 2024 фінансовий рік, Законі про автономний штучний інтелект, покликаний гарантувати, що цю політику буде закріплено в законі.

Це не означає, що військові технології та технології штучного інтелекту тримають окремо одна від одної. Навпаки, військові чиновники, дослідники та керівники оборонної промисловості планують збільшити роль ШІ у збройних силах і системах озброєнь, включно з ядерними.

ШІ Fullscreen
Штучний інтелект уже застосовується разом зі зброєю
Фото: Getty Images

Що ж таке штучний інтелект?

Наразі складно знайти єдине визначення технології штучного інтелекту. Одна група вчених пише для Міжнародного журналу наукової техніки та досліджень, що машини ШІ "реагують на стимуляцію відповідно до традиційних реакцій людей, з огляду на людську здатність до споглядання, судження та наміру". Даррел М. Вест і Джон Р. Аллен із Брукінгського інституту стверджують, що ШІ визначається трьома характеристиками: "навмисністю, інтелектом і адаптивністю".

Ці визначення точні, але більше стосуються комп'ютерів, готових конкурувати з людьми.

Для розуміння, як ШІ може вплинути Кетрін Оуенс пропонує уявити його як величезну систему для обробки даних. Обсяг інформації, яку вона пропускає через себе, надає їй певного рівня "інтелектуальності" і дозволяє відображати людську логіку краще, ніж будь-яка інша технологія обчислень.

Згідно з наявною на цей момент інформацією, існує два рівні технологій штучного інтелекту, які використовують у військовому контексті. Перший — це обчислення на основі правил. Людина-військовий задає правила "якщо-то" для програми ШІ, щоб вона могла генерувати відповіді при отриманні певних вхідних даних. Другий передбачає програми штучного інтелекту, які використовують можливості машинного навчання для обробки мільйонів точок даних для виявлення і подальшого "вивчення" закономірностей. Що більше даних має доступ до програми, то краще вона може порівнювати й оцінювати сценарії. За своєю суттю машинне навчання за допомогою ШІ засноване на ймовірності: воно може оцінити ймовірність повторення вже виявленого шаблону або події, а потім "зберегти" певні шаблони, коли це необхідно. Так може працювати, наприклад, програмне забезпечення для розпізнавання облич і голосу.

Важливо
"Залишилося 8 років": творець легендарної Quake передбачив появу ШІ, рівного людині
"Залишилося 8 років": творець легендарної Quake передбачив появу ШІ, рівного людині

Як ШІ застосовується до ядерної зброї?

Двома основними галузями, в яких ШІ вписується у військові системи, є: системи командування, контролю і зв'язку, а також стратегічна безпека і моделювання військових ігор (wargame). За словами аналітика, ці дві категорії вже зазнали удосконалень у сфері ШІ і є основним напрямком для його подальшого впровадження.

Штучний інтелект відіграє допоміжну роль у командуванні, управлінні та зв'язку систем ядерної зброї (NC3). Він робить це, насамперед, шляхом участі в оцінці ситуації, розробці та прогнозуванні заходів реагування, а також перерозподілу сил. Більшість систем озброєння, здатних нести ядерну зброю, крім інших функцій, покладаються на сенсорні дані для вимірювання умов, складання карти місцевості, допомоги в наведенні та навігаційної обізнаності, а також ідентифікації цілей. Системи штучного інтелекту підвищують точність і обсяг цієї інформації. Технологія штучного інтелекту може отримувати те, що Массачусетський технологічний інститут називає "структурованими даними" із супутників, розвідувальних БПЛА, буїв та інших джерел, а також "неструктуровані дані" з інтернет-джерел і виконувати "кондиціонування даних".

Що чекає на ШІ в майбутньому?

Подальше впровадження ШІ стикається з трьома основними перешкодами:

  • Парадокс людської участі. Люди часто упереджено ставляться до результатів, наданих ШІ, і зберігають контроль за собою.
  • Парадокс браку даних. Ядерні ракети запускають рідко і не застосовують для справжніх ударів, тому ефективність алгоритмів ШІ вельми обмежена — вони просто не можуть вивчити це явище і передбачити удар, що насувається.
  • Парадокс глобальної ядерної безпеки ШІ. Штучний інтелект і його можливості машинного навчання підвищують точність і швидкість, даючи операторам більше часу для ухвалення обґрунтованих рішень. Це може як стабілізувати відносини між ядерними державами, як ще один інструмент стримування, так і загострити їх, якщо здадуться серйозною загрозою для безпеки.

Зрештою, зв'язок між технологією штучного інтелекту та ядерною зброєю визначається парадоксами, — пише Кетрін Оуенс. Попри ці суперечливі теми, штучний інтелект у військових технологіях нікуди не дінеться.

"Ми не можемо до кінця знати, що принесе "ера ШІ" оборонному і ядерному співтовариству, але немає сумнівів у тому, що вона вплине на кожну ядерну боєголовку і кожен винищувач", — підсумувала вона.

Раніше писали, що Держдепартамент США розробив декларацію про відповідальне військове використання ШІ. Американські політики побоюються, що впровадження таких технологій можуть призвести до загибелі всього людства, а ось Росія, Китай, США та Ізраїль поки що не дуже хочуть обмежувати їх застосування в системах озброєння.