Вторгнення на Тайвань. Штучний інтелект, автономність та ризик ядерної війни
Як саме можливості штучного інтелекту можуть посилити кризу між двома супротивниками, які мають ядерну зброю? Розглянемо наступний вигаданий сценарій: вранці 12 грудня 2025 року політичні лідери Пекіна та Вашингтона санкціонували обмін ядерними ударами у Тайванській протоці.
Ми живемо в епоху запаморочливо швидких технологічних змін, особливо в галузі штучного інтелекту. Початок процесу підготовки збройних сил до участі в наповненому технологіями полі бою майбутнього — вже не просто спекуляція чи наукова фантастика.
"Технології штучного інтелекту" вже введено у військову техніку. Збройні сили всього світу далеко просунулися в плануванні, дослідженнях та розробках, а в багатьох випадках і розгортанні можливостей з використанням штучного інтелекту.
Фокус переклав новий текст Джеймса Джонсона, присвячений новим технологіям на війні.
Штучний інтелект та нові технології у військовій справі
Штучний інтелект не існує у вакуумі. Сам собою штучний інтелект навряд чи змінить стратегічні розклади. Навпаки, він, швидше за все, посилить дестабілізуючий вплив передового озброєння, тим самим роблячи війну стрімкою і скорочуючи терміни прийняття рішень. Дестабілізуючий ефект штучного інтелекту у військовій сфері може посилити напруженість між ядерними державами, особливо між Китаєм та США, але не через ті причини, які ви думаєте.
Як і наскільки зміни у сфері штучного інтелекту знаменують відхід від автоматизації в ядерній сфері, яка налічує кілька десятиліть? До наскільки радикальних змін ведуть ці розробки? Якими є потенційні ризики, пов'язані з об'єднанням технології штучного інтелекту з ядерною зброєю? Ми не можемо вичерпно відповісти на ці питання, екстраполюючи сучасні тенденції у розвитку можливостей штучного інтелекту на майбутнє. Але нам під силу виявити потенційні ризики нинішніх тенденцій та розглянути способи керування ними.
Виникнення взаємозв'язку між штучним інтелектом та ядерною зброєю
Варто розглянути, як досягнення в галузі технологій штучного інтелекту досліджуються, розробляються і, в деяких випадках, розгортаються та функціонують у контексті ширшої архітектури ядерного стримування — раннього попередження, розвідки, спостереження та рекогностування, командування та управління, носіїв ядерної зброї, а також неядерних операцій.
Раннє попередження, розвідка, спостереження та розвідка
Машинне навчання штучного інтелекту може покращити наявні системи раннього попередження, розвідки, спостереження та рекогностування трьома способами.
- По-перше, машинне навчання у поєднанні з хмарними обчисленнями, безпілотними літальними апаратами (або дронами) та аналітикою великих даних можна використовувати для розгортання мобільних платформ розвідки, спостереження та рекогностування на великих відстанях і в складних, небезпечних умовах (наприклад, у спірних регіонах, у міських умовах боротьби з повстанцями або в глибоководних умовах) для обробки даних у реальному часі та попередження командирів про потенційно підозрілі або небезпечні ситуації, такі як військові навчання та незвичайні переміщення військ або мобільних ракетних установок.
- По-друге, алгоритми машинного навчання можна застосувати для збору, обробки та аналізу великих обсягів розвідувальних даних з відкритих та засекречених джерел, щоб виявити взаємозв'язки у різнорідних і, можливо, суперечливих, скомпрометованих чи іншим чином видозмінених наборах даних.
- По-третє, алгоритмічна обробка розвідувальних даних може допомогти командирам передбачити і швидше запобігти підготовці супротивника до ядерного удару. Якщо коротко, штучний інтелект може запропонувати командирам, які діють у складному та динамічному середовищі, значно кращу ситуаційну обізнаність та інструменти прийняття рішень, дозволяючи виграти більше часу для прийняття обґрунтованих рішень з потенційно стабілізаційним ефектом.
Командування та управління ядерною зброєю
На відміну від систем розвідки та раннього попередження, штучний інтелект навряд чи вплине на командування та управління ядерним озброєнням, яке протягом кількох десятиліть автоматизувалося, але не автономізувалося. Як ми вже знаємо з інших статей на цьому сайті, алгоритми, що лежать в основі складних автономних систем, на сьогодні надто непередбачувані, вразливі для кібератак, незрозумілі (проблема "чорної скриньки"), крихкі та короткозорі, щоб використовувати їх у критично важливих сферах без нагляду.
Нині серед експертів та ядерних держав існує широкий консенсус щодо того, що навіть якщо технологія дозволяє штучному інтелекту приймати рішення, які безпосередньо впливають на функції ядерного командування та управління (тобто рішення про запуск ракет), їх не слід попередньо делегувати штучному інтелекту. Чи зможе цей тендітний консенсус протистояти зростаючій спокусі завдати першого удару в багатополярному ядерному порядку, поки незрозуміло. Невідомо також, чи зможуть командири, схильні до антропоморфізації суб'єктів, когнітивного розвантаження та зайвої довіри до автоматизації, уникнути спокуси розглядати штучний інтелект як панацею від когнітивних недоліків людського прийняття рішень. Можливо, питання полягає не в тому, чи будуть ядерні держави впроваджувати технології штучного інтелекту в управління, а в тому, хто, коли і якою мірою це робитиме.
Ядерні та неядерні системи доставки ракет
Технологія штучного інтелекту вплине на системи доставки ядерної зброї у кількох напрямках.
- По-перше, алгоритми машинного навчання підвищать ефективність навігації (завдяки заздалегідь запрограмованим параметрам наведення), автономність (функція "вистрілив і забув") і точність (у поєднанні з гіперзвуковими глайдерами).
Наприклад, китайський маневрений гіперзвуковий планер DF-ZF є прототипом подвійного призначення (з ядерним та звичайним озброєнням) та функцією автономності.
- По-друге, машинне навчання підвищить стійкість та опірність ядерних пускових платформ контрзаходам противника, таким як радіоелектронна боротьба або кібератаки. Тобто автономізація штучного інтелекту усуне наявні вразливості каналів зв'язку та передачі між пусковими установками та їх операторами.
- По-третє, збільшена витривалість безпілотних платформ з потужним штучним інтелектом (тобто безпілотних підводних човнів та бойових літаків), що використовуються в місіях розвідки, рекогностування та спостереження, якими не можна керувати дистанційно, підвищить їх здатність протистояти контрзаходам, а держави зможуть не боятися усунення командування. Це особливо актуально для асиметричних ядерних діад, таких як США — Росія, Індія — Пакистан та США — Китай.
Штучний інтелект і автономність можуть також посилити потенціал для другого удару держав — і, отже, стримування, — і допомогти керувати ескалацією під час кризи чи конфлікту.
Регулярні силові операції
Штучний інтелект може бути використаний для посилення звичайного озброєння з потенційно значними стратегічними наслідками — особливо стратегічної неядерної зброї, яка використовується у регулярних операціях. Машинне навчання підвищить рівень штучного інтелекту на борту пілотованих та безпілотних винищувачів, тим самим збільшуючи їхню здатність пробивати оборону супротивника за допомогою звичайних високоточних боєприпасів.
До того ж, підвищення автономності за допомогою штучного інтелекту може дозволити БПЛА діяти у складі роїв в умовах, які досі вважалися недоступними або надто небезпечними для пілотованих систем (наприклад, у зонах забороненого доступу, глибоководних умовах та космічному просторі). Азербайджансько-вірменська війна 2021 року та поточне українсько-російське протистояння показали, як малі держави можуть інтегрувати нові системи озброєнь для підвищення ефективності та потужності на полі бою.
Методи машинного навчання суттєво підвищують здатність систем протиракетної, повітряної та космічної оборони до виявлення, відстеження, націлювання та перехоплення цілей. Хоча технологія штучного інтелекту була інтегрована з автоматичним розпізнаванням цілей ще в 1970-х роках, швидкість ідентифікації цілей системами оборони підвищувалася повільно через обмежену базу даних сигнатур, які використовує система автоматичного розпізнавання цілей. Досягнення в галузі штучного інтелекту і, зокрема, генеративні мережі можуть усунути цю перешкоду, генеруючи реалістичні синтетичні дані для навчання та тестування систем автоматичного розпізнавання цілей. Крім того, рої автономних безпілотників також можна використовувати для посилення ППО (наприклад, як помилкові цілі або літаючі міни).
Технологія штучного інтелекту також змінює способи розробки та експлуатації наступальних та оборонних кібернетичних інструментів.
З одного боку, штучний інтелект може знизити вразливість армії до кібератак та операцій радіоелектронної боротьби. Наприклад, засоби кіберзахисту та протидії перешкодам, розроблені для розпізнавання змін у поведінці та аномалій у мережі та автоматичного виявлення шкідливих програм або вразливостей програмного коду, можуть захистити ядерні системи від кіберзломів та перешкод.
З іншого боку, досягнення в галузі машинного навчання штучного інтелекту (зокрема збільшення швидкості, скритності та анонімності кібероперацій) дозволять буквально на льоту виявляти вразливості противника — тобто невиявлені або неусунені вразливості програмного забезпечення.
Мотивовані противники можуть також використовувати шкідливе програмне забезпечення для того, щоб взяти під контроль, маніпулювати або обдурити поведінку та системи розпізнавання образів автономних систем типу Project Maven. Наприклад, використання генеративних мереж противника для створення синтетичних і реалістичних даних становить загрозу як для машинного навчання, так і для програмованих інструментів розпізнавання атак.
Загалом, технологія штучного інтелекту в ядерній сфері буде гострим мечем: удосконалення ядерних систем пов'язане з розширенням набору засобів, доступних противникам для проведення кібератак і операцій радіоелектронної боротьби проти цих систем.
Зрештою, досягнення в технології штучного інтелекту можуть сприяти фізичній безпеці ядерної зброї, особливо проти загроз, що походять від сторонніх та недержавних суб'єктів. Автономні транспортні засоби (наприклад, "роботи-саботажники") захистять ядерні сили держав, патрулюючи параметри чутливих об'єктів або формуючи озброєні автоматизовані системи спостереження вздовж уразливих кордонів — саме так діє автономний південнокорейський роботизований часовий Super Aegis II.
У поєднанні з іншими новими технологіями, такими як аналітика великих даних та системи раннього попередження та виявлення, штучний інтелект можна використовувати для створення нових рішень щодо протидії розповсюдженню. Наприклад, відпадає потреба в інспекторах на чутливих об'єктах, що забезпечує невтручання в угоди про перевірку контролю за озброєннями.
Раптова війна 2025 року в Тайванській протоці
Як саме можливості штучного інтелекту можуть посилити кризу між двома супротивниками, які мають ядерну зброю?
Розглянемо наступний вигаданий сценарій: зранку 12 грудня 2025 року політичні лідери Пекіна та Вашингтона санкціонували обмін ядерними ударами у Тайванській протоці. Незалежні розслідувачі "блискавичної війни" 2025 року висловили впевненість у тому, що жодна із сторін не застосувала "повністю автономну" зброю зі штучним інтелектом і не порушила закон про збройні конфлікти.
На виборах 2024 року президентка Цай Ін-вень, вкотре сильно зачепивши Пекін, здобула переконливу перемогу та забезпечила третій термін демократам, які виступають за незалежність. З настанням середини 2020-х років напруженість у регіоні продовжувала розпалюватись, оскільки обидві сторони — заручники жорсткої лінії політиків та генералів — зберігали безкомпромісні позиції, відмовляючись від дипломатичних жестів, і вдавалися до риторики ескалації, фальшивих новин та кампаній дезінформації. Водночас і Китай, і США розгорнули штучний інтелект для забезпечення поінформованості про поле бою, розвідку, спостереження та розвідку, раннє попередження та інші інструменти підтримки прийняття рішень, щоб прогнозувати і знаходити тактичні відповіді на дії противника в режимі реального часу.
До кінця 2025 року швидке підвищення точності, швидкості та прогностичних можливостей комерційних додатків зі штучним інтелектом подвійного призначення переконало великі держави використати машинне навчання не лише для вдосконалення тактичних та оперативних маневрів, але й дедалі більше для обґрунтування стратегічних рішень. Під враженням від раннього прийняття та впровадження Росією, Туреччиною та Ізраїлем інструментів штучного інтелекту для підтримки автономних роїв безпілотників, що притискають терористичну діяльність, Китай впровадив новітні технології штучного інтелекту подвійного призначення, пожертвувавши ретельним тестуванням та оцінкою у гонці.
Оскільки китайські військові вторгнення в Тайванській протоці — прольоти літаків, навчання по блокаді островів та операції зі спостереження за допомогою безпілотників — ознаменували різку ескалацію напруженості, лідери Китаю та США вимагали негайного впровадження новітніх стратегічних досягнень штучного інтелекту, щоб отримати максимальну асиметричну перевагу у масштабі, швидкості та мощі. У міру того, як з обох сторін зростала риторика ненависті в соціальних мережах, що посилювалася кампаніями дезінформації та кіберзломами мереж командування та контролю, все більше голосів заявляли про необхідність негайного насильницького приєднання Тайваню до Китаю.
Під впливом ситуації, що розгортається у Тихому океані, Сполучені Штати вирішили прискорити введення в експлуатацію прототипу автономної системи стратегічного прогнозування та рекомендацій (SPRS), яка працює на основі штучного інтелекту. Ця система допомагає приймати рішення у таких видах діяльності, як логістика, кібернетика, забезпечення космічної безпеки та управління енергоресурсами. Китай, побоюючись втратити асиметричну перевагу, запустив аналогічну систему підтримки прийняття рішень Strategic & Intelligence Advisory System (SIAS), щоб забезпечити автономну готовність до будь-якої кризи.
14 червня 2025 року о 06:30 патрульний катер тайванської берегової охорони зіткнувся з китайським автономним морським апаратом, який виконував розвідувальну місію в територіальних водах Тайваню, і потопив його. Напередодні президентка Цай приймала у Тайбеї високопоставлену делегацію співробітників Конгресу США та чиновників Білого дому з дипломатичним візитом. До 06:50 ефект доміно, посилений ботами, діпфейками і операціями під чужим прапором, перейшов за червону лінію Пекіна, а значить, стримування стало недостатньо.
До 07:15 ці інформаційні операції збіглися зі сплеском кіберзломів, спрямованих на Індо-Тихоокеанське командування США та тайванські військові системи, оборонними маневрами орбітальних китайських протикосмічних засобів, активізацією автоматизованих систем матеріально-технічного забезпечення Народно-визвольної армії та підозрілим прееміщенням пускових ядерних автотранспортних еректорів НВАК. О 07:20 американська SPRS оцінила таку поведінку як насування серйозної загрози національній безпеці і рекомендувала посилити позицію стримування і провести потужну демонстрацію сили. О 07:25 Білий дім санкціонував проліт автономного стратегічного бомбардувальника у Тайванській протоці.
У відповідь о 07:35 китайська система SIAS повідомила Пекін про збільшення навантаження на зв'язок між Індо-Тихоокеанським командуванням США та найважливішими командними та комунікаційними вузлами у Пентагоні. О 07:40 SIAS підвищила рівень загрози превентивного удару США у Тихому океані з метою захисту Тайваню та нападу на контрольовану Китаєм територію у Південно-Китайському морі. О 07:45 SIAS рекомендувала китайським лідерам використовувати конвенційну зброю протидії (кібернетичну, протисупутникову, гіперзвукову зброю та інші інтелектуальні високоточні ракетні технології) для обмеженого превентивного удару по найважливіших об'єктах США в Тихому океані, включаючи базу ВПС США на Гуамі.
О 07:50 китайське військове керівництво, побоюючись неминучого знезброювального удару США і все більше покладаючись на оцінки SIAS, санкціонувало атаку, яку SIAS вже передбачала і, отже, планувала і готувалася до неї. О 07:55 SPRS попередила Вашингтон про неминучий напад і рекомендувала негайно завдати обмеженого ядерного удару, щоб змусити Пекін припинити наступ. Після обмеженого американо-китайського обміну ядерними ударами у Тихому океані, внаслідок якого загинули мільйони людей та десятки мільйонів отримали поранення, обидві сторони домовилися про припинення воєнних дій.
Відразу після жорстокої бійні, яка вбила мільйони людей за кілька годин, лідери обох сторін були приголомшені тим, що спричинило "блискавичну війну". Обидві сторони намагалися заднім числом відновити докладний аналіз рішень, прийнятих SPRS та SIAS. Однак розробники алгоритмів, що лежать в основі SPRS та SIAS, повідомили, що неможливо пояснити обґрунтування рішень та міркування ШІ, що стоять за кожним рішенням з підмножини. Крім того, через різні обмеження часу, шифрування та конфіденційності, що накладаються кінцевими військовими та бізнес-користувачами, неможливо було вести журнали та протоколи зворотного тестування.
Отже, чи стала технологія штучного інтелекту причиною "блискавичної війни" 2025 року?
Людські рішення машинних проблем
Зрештою, найкращим способом підготовки до ядерного майбутнього зі штучним інтелектом може стати дотримання кількох основних принципів, якими слід керуватися під час управління ядерною зброєю у взаємодії з новими технологіями.
- По-перше, системи ядерної зброї не повинні бути надмірно заплутаними чи переускладненими.
- По-друге, ці системи мають бути достатньо зміцнені та надійні, щоб протистояти традиційним та новим загрозам, що виникають у цифровій сфері.
- По-третє, ядерна зброя має бути, по можливості, чітко відокремлена (як фізично, так і доктринально) від неядерного потенціалу та систем командування, управління, зв'язку та розвідки. Якщо дотримуватись цього принципу, то, швидше за все, вдасться виключити появу систем подвійного призначення, описаних у сценарії "блискавичної війни".
Для досягнення цих гідних цілей штучний інтелект може допомогти спеціалістам з оборонного планування у розробці та проведенні військових симуляцій та інших віртуальних навчань для відпрацювання оперативних концепцій, тестування різних сценаріїв конфліктів та визначення областей та технологій для потенційного розвитку. Наприклад, методи машинного навчання ШІ — моделювання, імітація та аналіз — можуть доповнити уявні моделі та низькотехнологічні настільні симуляції військових дій для визначення непередбачених обставин, за яких може виникнути ризик ядерної війни.
Як писав Алан Тюрінг у 1950 році: "Ми можемо зазирнути у майбутнє лише на кілька кроків, але побачимо там багато того, що треба зробити".
Про автора
Джеймс Джонсон — викладач стратегічних досліджень в університеті Абердіна. Почесний науковий співробітник Університету Лестера, гостьовий співробітник проєкту "Towards a Third Nuclear Age", що фінансується Європейською дослідницькою радою, та співробітник Центру стратегічних досліджень з ядерної проблематики. Автор книги Artificial Intelligence and the Future of Warfare: USA, China & Strategic Stability. Його найновіша книга для видавництва Oxford University Press — AI & the Bomb: Nuclear Strategy and Risk in the Digital Age. Слідкуйте за ним у Твіттері: @James_SJohnson.