Ядерна зброя стане ще небезпечнішою, якщо нею керуватиме ШІ: гарантій безпеки немає

ядерний вибух, ядерна зброя
Фото: BBC | Ядерний вибух: ілюстративне фото

Швидкість, із якою можуть працювати нейромережі, створює ризик занадто швидкої ескалації ядерних конфліктів — люди можуть просто не встигнути втрутитися.

Related video

Згідно із загальноприйнятою думкою, штучний інтелект (ШІ) впроваджується повсюдно. Доступні чат-боти, які малюють за підказками нейромережі, смартфони й телевізори з ШІ-чипами. Зміни стосуються не тільки споживчої техніки, а й військової. Сьогодні можливості ШІ використовують для оновлення старої та вельми небезпечної технології — ядерної зброї (ЯЗ). Наскільки небезпечна ЯЗ під управлінням нейромереж, з'ясував Фокус.

Як ШІ може посилити ядерну зброю

У своїй статті для Мedium Кен Бріггс, інженер і популяризатор науки, пише, що алгоритми ШІ можуть радикально підвищити ефективність ядерних ударів і їхню точність, звівши так до мінімуму побічну шкоду, особливо що стосується тактичної ядерної зброї.

Роль ШІ в проєктуванні та моделюванні боєголовок не менш революційна. Складні моделі машинного навчання можуть із високою точністю моделювати ядерні вибухи, надаючи безцінну інформацію про наслідки ядерних вибухів. Ці знання мають вирішальне значення під час оптимізації конструкцій боєголовок. Зокрема, ШІ-системи можуть аналізувати екологічні та географічні дані, щоб рекомендувати оптимальні цілі з урахуванням різних стратегічних факторів.

ядерна зброя, ядерна боєголовка, ЯЗ, Росія Fullscreen
Російська ядерна зброя
Фото: Flickr

Видання Vice США цитує Едварда Гейста, дослідника-політолога з корпорації RAND і автора книжки "Стримування в умовах невизначеності: штучний інтелект і ядерна війна", який вважає, що ШІ — ще недостатньо добре вивчена технологія, а її взаємодія з давно створеною ядерною зброєю потребує окремої уваги.

"Між ядерною зброєю та штучним інтелектом часто проводять паралель, наголошуючи на небезпеці обох технологій. На жаль, обидві ці теми змушують навіть розумних людей фантазувати, навіть тих, які мають безпосередній досвід роботи хоча б з однією з технологій", — резюмував Гейст.

Які ризики несе інтеграція ШІ та ядерної зброї

"Інтеграція ШІ із системами ядерної зброї викликає серйозні етичні питання та вимагає ретельного управління для пом'якшення потенційно негативних наслідків", — вважає Кен Бріггс.

Одним із найбільш спірних питань інтеграції нейромереж і ЯЗ, на думку Бріггса, є делегування ухвалення рішень системам штучного інтелекту, особливо в сценаріях, пов'язаних із застосуванням ядерної зброї.

ядерна зброя, ЯЗ, ядерна боєголовка, США Fullscreen
Американська ядерна зброя
Фото: iz.ru

"Перспектива того, що машини ухвалюватимуть рішення про життя й смерть, порушує фундаментальні моральні питання та побоювання щодо потенційної відсутності підзвітності й прозорості. Швидкість, із якою можуть працювати нейромережі, також створює ризик занадто швидкої ескалації конфліктів — люди просто можуть не встигнути втрутитися", — ідеться в матеріалі.

Інтеграція ШІ в системи ядерної зброї також може призвести до значних змін у глобальній динаміці сил. Країни, які досягають успіху в ШІ-технологіях, можуть узяти гору, потенційно спровокувавши нову гонку озброєнь, орієнтовану на нейромережі та кіберможливості. Ці перегони можуть посилити глобальну напруженість і призвести до посилення нестабільності, особливо в регіонах, де існує ядерне суперництво.

Важливо
Штучний інтелект майже всього навчився: брак даних зіграє злий жарт, — учені

Ба більше, дедалі більшу стурбованість викликає ризик кібератак на системи ядерного управління та контролю, доповнені штучним інтелектом, підкреслює Кен. Уразливість цих систем до злому або збоїв може призвести до випадкових запусків або несанкціонованого використання ЯЗ, додаючи ще більше ризику для глобальної безпеки.

"Оскільки ШІ продовжує розвиватися, украй важливо, щоб міжнародні правила, етичні рекомендації та надійні заходи кібербезпеки здійснювали паралельно з його розвитком для пом'якшення перерахованих вище ризиків. Майбутнє ядерної війни й оборони, яке зараз нерозривно пов'язане зі ШІ, необхідно розглядати з обережністю, гарантуючи, що ці потужні технології слугуватимуть зміцненню глобальної безпеки, а не підриватимуть її", — резюмував автор.

Раніше ми писали про те, що вчені за крок до створення інтерфейсу "мозок-комп'ютер". Прозорий датчик із графену зміг зчитати дані, які передають нейрони, а штучний інтелект зміг їх зрозуміти й розшифрувати.