Разделы
Материалы

Вторжение на Тайвань. Искусственный интеллект, автономность и риск ядерной войны

Ольга Шевченко
Фото: UK Defence Journal | Станет ли технология искусственного интеллекта причиной "молниеносной войны" между Китаем и Тайванем?

Как именно возможности искусственного интеллекта могут усилить кризис между двумя противниками, обладающими ядерным оружием? Рассмотрим следующий вымышленный сценарий: утром 12 декабря 2025 года политические лидеры Пекина и Вашингтона санкционировали обмен ядерными ударами в Тайваньском проливе…

Мы живем в эпоху головокружительно быстрых технологических изменений, особенно в области искусственного интеллекта. Начинающийся процесс подготовки вооруженных сил к участию в наполненном технологиями поле боя будущего – уже не просто спекуляция или научная фантастика.

"Технологии искусственного интеллекта" уже внедрены в военную технику. Вооруженные силы всего мира далеко продвинулись в планировании, исследованиях и разработках, а во многих случаях и в развертывании возможностей с использованием искусственного интеллекта.

Фокус перевел новый текст Джеймса Джонсона, посвященный новым технологиям на войне.

Искусственный интеллект и новые технологии в военном деле

Искусственный интеллект не существует в вакууме. Сам по себе искусственный интеллект вряд ли изменит стратегические расклады. Наоборот, он, скорее всего, усилит дестабилизирующее воздействие передового вооружения, тем самым делая войну стремительной и сокращая сроки принятия решений. Дестабилизирующий эффект искусственного интеллекта в военной сфере может усилить напряженность между ядерными державами, особенно между Китаем и США, но не по тем причинам, которые вы думаете.

Как и насколько изменения в сфере искусственного интеллекта знаменуют собой отход от автоматизации в ядерной сфере, которая насчитывает несколько десятилетий? К насколько радикальным изменениям ведут эти разработки? Каковы потенциальные риски, связанные с объединением технологии искусственного интеллекта с ядерным оружием? Мы не можем исчерпывающе ответить на эти вопросы, экстраполируя современные тенденции в развитии возможностей искусственного интеллекта на будущее. Но нам по силам выявить потенциальные риски нынешних тенденций и рассмотреть способы управления ими.

Возникновение взаимосвязи между искусственным интеллектом и ядерным оружием

Стоит рассмотреть, как достижения в области технологий искусственного интеллекта исследуются, разрабатываются и, в некоторых случаях, развертываются и функционируют в контексте более широкой архитектуры ядерного сдерживания – раннего предупреждения, разведки, наблюдения и рекогносцировки, командования и управления, носителей ядерного оружия, а также и неядерных операций.

Раннее предупреждение, разведка, наблюдение и рекогносцировка

Машинное обучение искусственного интеллекта может улучшить существующие системы раннего предупреждения, разведки, наблюдения и рекогносцировки тремя способами.

  • Во-первых, машинное обучение в сочетании с облачными вычислениями, беспилотными летательными аппаратами (или дронами) и аналитикой больших данных можно использовать для развертывания мобильных платформ разведки, наблюдения и рекогносцировки на больших расстояниях и в сложных, опасных условиях (например, в спорных регионах, в городских условиях борьбы с повстанцами или в глубоководных условиях) для обработки данных в реальном времени и предупреждения командиров о потенциально подозрительных или опасных ситуациях, таких как военные учения и необычные перемещения войск или мобильных ракетных установок.
  • Во-вторых, алгоритмы машинного обучения можно применить для сбора, обработки и анализа больших объемов разведывательных данных из открытых и засекреченных источников, чтобы выявить взаимосвязи в разнородных и, возможно, противоречивых, скомпрометированных или иным образом видоизмененных наборах данных.
  • В-третьих, алгоритмическая обработка разведывательных данных может помочь командирам предвидеть и быстрее упредить подготовку противника к ядерному удару. Короче говоря, искусственный интеллект может предложить командирам, действующим в сложной и динамичной среде, значительно лучшую ситуационную осведомленность и инструменты принятия решений, позволяя выиграть больше времени для принятия обоснованных решений с потенциально стабилизирующим эффектом.
Машинное обучение искусственного интеллекта может улучшить существующие системы раннего предупреждения, разведки, наблюдения и рекогносцировки тремя способами
Фото: Коллаж: Фокус

Командование и управление ядерным оружием

В отличие от с систем разведки и раннего предупреждения, искусственный интеллект вряд ли окажет существенное воздействие на командование и управление ядерным вооружением, которое в течение нескольких десятилетий автоматизировалось, но не автономизировалось. Как мы уже знаем из других статей на этом сайте, алгоритмы, лежащие в основе сложных автономных систем, на сегодняшний день слишком непредсказуемы, уязвимы для кибератак, необъяснимы (проблема "черного ящика"), хрупки и близоруки, чтобы использовать их в критически важных областях без надзора.

На данный момент среди экспертов и ядерных держав существует широкий консенсус насчет того, что, даже если технология позволяет искусственному интеллекту принимать решения, которые непосредственно влияют на функции ядерного командования и управления (т.е. решения о запуске ракет), их не следует предварительно делегировать искусственному интеллекту. Сможет ли этот хрупкий консенсус противостоять растущему соблазну нанести первый удар в многополярном ядерном порядке, пока непонятно. Неизвестно также, смогут ли командиры, предрасположенные к антропоморфизации субъектов, когнитивной разгрузке и излишнему доверию автоматизации, избежать искушения рассматривать искусственный интеллект как панацею от когнитивных недостатков человеческого принятия решений. Возможно, вопрос заключается не в том, будут ли ядерные государства внедрять технологии искусственного интеллекта в управление, сколько в том, кто, когда и в какой степени будет это делать.

Ядерные и неядерные системы доставки ракет

Технология искусственного интеллекта повлияет на системы доставки ядерного оружия в нескольких отношениях.

  • Во-первых, алгоритмы машинного обучения повысят эффективность навигации (благодаря заранее запрограммированным параметрам наведения), автономность (функция "выстрелил и забыл") и точность (в сочетании с гиперзвуковыми глайдерами).

Например, китайский маневренный гиперзвуковой планер DF-ZF является прототипом двойного назначения (с ядерным и обычным вооружением) и функцией автономности.

  • Во-вторых, машинное обучение повысит устойчивость и сопротивляемость ядерных пусковых платформ контрмерам противника, таким как радиоэлектронная борьба или кибератаки. То есть автономизация искусственного интеллекта устранит существующие уязвимости каналов связи и передачи данных между пусковыми установками и их операторами.
  • В-третьих, увеличенная выносливость беспилотных платформ с мощным искусственным интеллектом (т.е. беспилотных подводных лодок и боевых самолетов), используемых в миссиях разведки, рекогносцировки и наблюдения, которыми нельзя управлять дистанционно, повысит их способность противостоять контрмерам, а государства смогут не бояться устранения командования. Это особенно актуально для асимметричных ядерных диад, таких как США — Россия, Индия — Пакистан и США — Китай.

Искусственный интеллект и автономность могут также усилить потенциал для второго удара государств – и, следовательно, сдерживания, – а также помочь управлять эскалацией во время кризиса или конфликта.

Регулярные силовые операции

Искусственный интеллект может быть использован для усиления обычного вооружения с потенциально значительными стратегическими последствиями — особенно стратегического неядерного оружия, используемого в регулярных операциях. Машинное обучение повысит уровень искусственного интеллекта на борту пилотируемых и беспилотных истребителей, тем самым увеличивая их способность пробивать оборону противника с помощью обычных высокоточных боеприпасов.

Более того, повышение автономности с помощью искусственного интеллекта может позволить БПЛА действовать в составе роев в условиях, которые до сих пор считались недоступными или слишком опасными для пилотируемых систем (например, в зонах запрещенного доступа, глубоководных условиях и космическом пространстве). Азербайджано-армянская война 2021 года и текущее украинско-российское противостояние показали, как малые государства могут интегрировать новые системы вооружений для повышения эффективности и мощи на поле боя.

Методы машинного обучения существенно повышают способность систем противоракетной, воздушной и космической обороны к обнаруживанию, отслеживанию, нацеливанию и перехвату целей. Хотя технология искусственного интеллекта была интегрирована с автоматическим распознаванием целей еще в 1970-е годы, скорость идентификации целей системами обороны повышалась медленно из-за ограниченной базы данных сигнатур, которые использует система автоматического распознавания целей. Достижения в области искусственного интеллекта и, в частности, генеративные сети могут устранить это препятствие, генерируя реалистичные синтетические данные для обучения и тестирования систем автоматического распознавания целей. Кроме того, рои автономных беспилотников также можно использовать для усиления ПВО (например, в качестве ложных целей или летающих мин).

Технология искусственного интеллекта также меняет способы разработки и эксплуатации наступательных и оборонительных кибернетических инструментов.

С одной стороны, искусственный интеллект может снизить уязвимость армии к кибератакам и операциям радиоэлектронной борьбы. Например, средства киберзащиты и противодействия помехам, разработанные для распознавания изменений в поведении и аномалий в сети и автоматического выявления вредоносных программ или уязвимостей программного кода, могут защитить ядерные системы от кибервзломов и помех.

С другой стороны, достижения в области машинного обучения искусственного интеллекта (в частности, увеличение скорости, скрытности и анонимности киберопераций) позволят буквально на лету выявлять уязвимости противника – то есть необнаруженные или неустраненные уязвимости программного обеспечения.

Мотивированные противники могут также использовать вредоносное ПО для того, чтобы взять под контроль, манипулировать или обмануть поведение и системы распознавания образов автономных систем типа Project Maven. Например, использование генеративных сетей противника для создания синтетических и реалистичных данных представляет угрозу как для машинного обучения, так и для заранее программируемых инструментов распознавания атак.

Одним словом, технология искусственного интеллекта в ядерной сфере будет обоюдоострым мечом: усовершенствование ядерных систем сопряжено с расширением набора средств, доступных противникам для проведения кибератак и операций радиоэлектронной борьбы против этих систем.

Наконец, достижения в технологии искусственного интеллекта могут способствовать физической безопасности ядерного оружия, особенно против угроз, исходящих от сторонних и негосударственных субъектов. Автономные транспортные средства (например, "роботы-саботажники") защитят ядерные силы государств, патрулируя параметры чувствительных объектов или формируя вооруженные автоматизированные системы наблюдения вдоль уязвимых границ – именно так действует автономный южнокорейский роботизированный часовой Super Aegis II.

В сочетании с другими новыми технологиями, такими как аналитика больших данных и системы раннего предупреждения и обнаружения, искусственный интеллект можно использовать для создания новых решений по противодействию распространению. Например, отпадает необходимость в инспекторах на чувствительных объектах, что обеспечивает невмешательство в соглашения о проверке контроля над вооружениями.

Внезапная война 2025 года в Тайваньском проливе

Как именно возможности искусственного интеллекта могут усилить кризис между двумя противниками, обладающими ядерным оружием?

Рассмотрим следующий вымышленный сценарий: утром 12 декабря 2025 года политические лидеры Пекина и Вашингтона санкционировали обмен ядерными ударами в Тайваньском проливе. Независимые расследователи "молниеносной войны" 2025 года выразили уверенность в том, что ни одна из сторон не применила "полностью автономное" оружие с искусственным интеллектом и не нарушила закон о вооруженных конфликтах.

На выборах 2024 года президент Цай Ин-вэнь, в очередной раз сильно задев Пекин, одержала убедительную победу и обеспечила третий срок демократам, выступающим за независимость. С наступлением середины 2020-х годов напряженность в регионе продолжала накаляться, поскольку обе стороны – заложники жесткой линии политиков и генералов – сохраняли бескомпромиссные позиции, отказываясь от дипломатических жестов, и прибегали к риторике эскалации, фальшивым новостям и кампаниям дезинформации. В то же время и Китай, и США развернули искусственный интеллект для обеспечения осведомленности о поле боя, разведки, наблюдения и рекогносцировки, раннего предупреждения и других инструментов поддержки принятия решений, чтобы прогнозировать и находить тактические ответы на действия противника в режиме реального времени.

К концу 2025 года быстрое повышение точности, скорости и прогностических возможностей коммерческих приложений с искусственным интеллектом двойного назначения убедило великие державы использовать машинное обучение не только для усовершенствования тактических и оперативных маневров, но и во все большей степени для обоснования стратегических решений. Под впечатлением от раннего принятия и внедрения Россией, Турцией и Израилем инструментов искусственного интеллекта для поддержки автономных роев беспилотников, подавляющих террористическую деятельность, Китай внедрил новейшие технологии искусственного интеллекта двойного назначения, пожертвовав тщательным тестированием и оценкой в гонке за первенством.

Поскольку китайские военные вторжения в Тайваньском проливе – пролеты самолетов, учения по блокаде островов и операции по наблюдению с помощью беспилотников – ознаменовали резкую эскалацию напряженности, лидеры Китая и США потребовали немедленного внедрения новейших стратегических достижений искусственного интеллекта, чтобы получить максимальное асимметричное преимущество в масштабе, скорости и мощи. По мере того как с обеих сторон возрастала риторика ненависти в социальных сетях, усугубляемая кампаниями дезинформации и кибервзломами сетей командования и контроля, все больше голосов заявляли о необходимости немедленного насильственного присоединения Тайваня к Китаю.

Под влиянием ситуации, разворачивающейся в Тихом океане, Соединенные Штаты решили ускорить ввод в эксплуатацию прототипа автономной системы стратегического прогнозирования и рекомендаций (SPRS), работающей на основе искусственного интеллекта. Эта система помогает принимать решения в таких видах деятельности, как логистика, кибернетика, обеспечение космической безопасности и управление энергоресурсами. Китай, опасаясь потерять асимметричное превосходство, запустил аналогичную систему поддержки принятия решений "Strategic & Intelligence Advisory System" (SIAS), чтобы обеспечить автономную готовность к любому кризису.

14 июня 2025 года, в 06:30, патрульный катер тайваньской береговой охраны столкнулся с китайским автономным морским аппаратом, выполнявшим разведывательную миссию в территориальных водах Тайваня, и потопил его. Накануне президент Цай принимала в Тайбэе высокопоставленную делегацию сотрудников Конгресса США и чиновников Белого дома с дипломатическим визитом. К 06:50 последовавший за этим эффект домино, усиленный ботами, дипфейками и операциями под чужим флагом, перешел за красную линию Пекина, а значит, сдерживания стало недостаточно.

К 07:15 эти информационные операции совпали с всплеском кибервзломов, направленных на Индо-Тихоокеанское командование США и тайваньские военные системы, оборонительными маневрами орбитальных китайских противокосмических средств, активизацией автоматизированных систем материально-технического обеспечения Народно-освободительной армии и подозрительным перемещением пусковых установок ядерных автотранспортных эректоров НОАК. В 07:20 американская SPRS оценила такое поведение как надвигающуюся серьезную угрозу национальной безопасности и рекомендовала усилить позицию сдерживания и провести мощную демонстрацию силы. В 07:25 Белый дом санкционировал пролет автономного стратегического бомбардировщика в Тайваньском проливе.

В ответ в 07:35 китайская система SIAS уведомила Пекин об увеличении нагрузки на связь между Индо-Тихоокеанским командованием США и важнейшими командными и коммуникационными узлами в Пентагоне. В 07:40 SIAS повысила уровень угрозы превентивного удара США в Тихом океане с целью защиты Тайваня и нападения на контролируемую Китаем территорию в Южно-Китайском море. В 07:45 SIAS рекомендовала китайским лидерам использовать конвенциональное оружие противодействия (кибернетическое, противоспутниковое, гиперзвуковое оружие и другие интеллектуальные высокоточные ракетные технологии) для ограниченного превентивного удара по важнейшим объектам США в Тихом океане, включая базу ВВС США на Гуаме.

В 07:50 китайское военное руководство, опасаясь неизбежного обезоруживающего удара США и все больше полагаясь на оценки SIAS, санкционировало атаку, которую SIAS уже предвидела и, следовательно, планировала и готовилась к ней. В 07:55 SPRS предупредила Вашингтон о неизбежном нападении и рекомендовала немедленно нанести ограниченный ядерный удар, чтобы заставить Пекин прекратить наступление. После ограниченного американо-китайского обмена ядерными ударами в Тихом океане, в результате которого погибли миллионы людей и десятки миллионов получили ранения, обе стороны договорились о прекращении военных действий.

Сразу после жестокой бойни, убившей миллионы людей за несколько часов, лидеры обеих сторон были ошеломлены тем, что послужило причиной "молниеносной войны". Обе стороны пытались задним числом восстановить подробный анализ решений, принятых SPRS и SIAS. Однако разработчики алгоритмов, лежащих в основе SPRS и SIAS, сообщили, что невозможно объяснить обоснование решений и рассуждения ИИ, стоящие за каждым решением из подмножества. Кроме того, из-за различных ограничений по времени, шифрованию и конфиденциальности, налагаемых конечными военными и бизнес-пользователями, невозможно было вести журналы и протоколы обратного тестирования.

Итак, стала ли технология искусственного интеллекта причиной "молниеносной войны" 2025 года?

Технологии искусственного интеллекта могут способствовать физической безопасности ядерного оружия, особенно против угроз, исходящих от сторонних и негосударственных субъектов
Фото: AP Photo

Человеческие решения машинных проблем

В конечном итоге, лучшим способом подготовки к ядерному будущему с искусственным интеллектом может стать соблюдение нескольких основных принципов, которыми следует руководствоваться при управлении ядерным оружием в его взаимодействии с новыми технологиями.

  • Во-первых, системы ядерного оружия не должны быть излишне запутанными или переусложненными.
  • Во-вторых, эти системы должны быть достаточно укреплены и надежны, чтобы противостоять традиционным и новым угрозам, возникающим в цифровой сфере.
  • В-третьих, ядерное оружие должно быть, по возможности, четко отделено (как физически, так и доктринально) от неядерного потенциала и систем командования, управления, связи и разведки. Если следовать этому принципу, то, скорее всего, удастся исключить появление систем двойного назначения, описанных в сценарии "молниеносной войны".

Для достижения этих достойных целей искусственный интеллект может помочь специалистам по оборонному планированию в разработке и проведении военных симуляций и других виртуальных учений для отработки оперативных концепций, тестирования различных сценариев конфликтов и определения областей и технологий для потенциального развития. Например, методы машинного обучения ИИ – моделирование, имитация и анализ – могут дополнить воображаемые модели и низкотехнологичные настольные симуляции военных действий для определения непредвиденных обстоятельств, при которых может возникнуть риск ядерной войны.

Как писал Алан Тьюринг в 1950 году: "Мы можем заглянуть в будущее лишь на несколько шагов, но увидим там многое, что нужно сделать".

Об авторе

Джеймс Джонсон – преподаватель стратегических исследований в Абердинском университете. Почетный научный сотрудник Университета Лестера, гостевой сотрудник проекта "Towards a Third Nuclear Age", финансируемого Европейским исследовательским советом, и сотрудник Центра стратегических исследований по ядерной проблематике. Aвтор книги Artificial Intelligence and the Future of Warfare: USA, China & Strategic Stability. Его новейшая книга для издательства Oxford University Press — AI & the Bomb: Nuclear Strategy and Risk in the Digital Age. Следите за ним в Твиттере: @James_SJohnson.