Разделы
Материалы

Может ли ИИ уничтожить цивилизацию ядерным оружием? Эксперт раскрыл, что ему мешает

Александр Залата
Фото: Flickr | Ядерное оружие применяется редко - для ИИ это хорошо и плохо одновременно

Искусственный интеллект играет все большую роль в военной сфере и со временем будет влиять на каждую ядерную боеголовоку, считает Кэтрин Оуэнс.

Искусственный интеллект пугает многих экспертов потенциальной возможностью убивать людей при наличии доступа к оружию. Кэтрин Оуэнс, научный сотрудник Центра военной модернизации, в своей статье на сайте Warrior Maven разбирается, может ли машина запустить ядерные ракеты и уничтожить человеческую цивилизацию.

За последний год разработки в области искусственного интеллекта привели к тому, что его все чаще сравнивают с ядерным оружием. Однако эксперты в этом вопросе упускают суть — реальную опасность представляет именно сближение ИИ с ядерными технологиями.

Как отетила Кэтрин Оуэнс: роботов с искусственным интеллектом не собираются допускать к кнопкам запуска ядерного оружия — это было прописано в рекомендациях Комиссии национальной безопасности по ИИ, сформированной в 2019 году, и в Обзоре ядерной политики Министерства обороны за 2022 год, а также подтверждено в Законе о полномочиях национальной обороны на 2024 финансовый год, Законе об автономном искусственном интеллекте, призванный гарантировать, что эта политика будет закреплена в законе.

Это не значит, что военные технологии и технологии искусственного интеллекта держат отдельно друг от друга. Напротив, военные чиновники, исследователи и руководители оборонной промышленности планируют увеличить роль ИИ в вооруженных силах и системах вооружений, включая ядерные.

Искуственный интеллект уже применяется вместе с оружием
Фото: Getty Images

Что же такое искусственный интеллект?

Сейчас сложно найти единое определение технологии искусственного интеллекта. Одна группа ученых пишет для Международного журнала научной техники и исследований, что машины ИИ "реагируют на стимуляцию в соответствии с традиционными реакциями людей, учитывая человеческую способность к созерцанию, суждению и намерению". Даррел М. Уэст и Джон Р. Аллен из Брукингского института утверждают, что ИИ определяется тремя характеристиками: "намеренностью, интеллектом и адаптивностью".

Эти определения точны, но больше относятся к компьютерам, готовым конкурировать с людьми.

Для понимания, как ИИ может повлиять Кэтрин Оуэнс предлагает представить его как огромную систему для обработки данных. Объем информации, она пропускает через себя, придает ей определенный уровень "интеллектуальности" и позволяет отражать человеческую логику лучше, чем любая другая технология вычислений.

Согласно имеющейся на данный момент информации, существует два уровня технологий искусственного интеллекта, используемых в военном контексте. Первый — это вычисления на основе правил. Человек-военный задает правила "если-то" для программы ИИ, чтобы она могла генерировать ответы при получении определенных входных данных. Второй предполагает программы искусственного интеллекта, которые используют возможности машинного обучения для обработки миллионов точек данных для выявления и последующего "изучения" закономерностей. Чем больше данных имеет доступ к программе, тем лучше она может сравнивать и оценивать сценарии. По своей сути машинное обучение с помощью ИИ основано на вероятности: оно может оценить вероятность повторения уже выявленного шаблона или события, а затем "сохранить" определенные шаблоны, когда это необходимо. Так может работать, например, программное обеспечение для распознавания лиц и голоса.

Как ИИ применяется к ядерному оружию?

Двумя основными областями, в которых ИИ вписывается в военные системы, являются: системы командования, контроля и связи, а также стратегическая безопасность и моделирование военных игр (wargame ). По словам аналитика, эти две категории уже подверглись усовершенствованиям в области ИИ и являются основным направлением для его дальнейшего внедрения.

Искусственный интеллект играет вспомогательную роль в командовании, управлении и связи систем ядерного оружия (NC3). Он делает это, прежде всего, путем участия в оценке ситуации, разработке и прогнозированию мер реагирования, а также перераспределению сил. Большинство систем вооружения, способных нести ядерное оружие, помимо других функций полагаются на сенсорные данные для измерения условий, составления карты местности, помощи в наведении и навигационной осведомленности, а также идентификации целей. Системы искусственного интеллекта повышают точность и объем этой информации. Технология искусственного интеллекта может получать то, что Массачусетский технологический институт называет "структурированными данными" со спутников, разведывательных БПЛА, буев и других источников, а также "неструктурированные данные" из интернет-источников и выполнять "кондиционирование данных".

Что ждет ИИ в будущем?

Дальнейшее внедрение ИИ сталкивается с тремя основными препятствиями:

  • Парадокс человеческого участия. Люди часто предвзято относятся к результатам, предоставленным ИИ, и сохраняют контроль за собой.
  • Парадокс нехватки данных. Ядерные ракеты запускаются редко и не применяются для настоящих ударов, поэтому эффективность алгоритмов ИИ весьма ограничена — они попросту не могут изучить это явление и предсказать надвигающийся удар.
  • Парадокс глобальной ядерной безопасности ИИ. Искусственный интеллект и его возможности машинного обучения повышают точность и скорость, давая операторам больше времени для принятия обоснованных решений. Это может как стабилизировать отношения между ядерными державами, как еще один инструмент сдерживания, так и обострить их, если покажутся серьезной угрозой для безопасности.

В конечном счете, связь между технологией искусственного интеллекта и ядерным оружием определяется парадоксами, — пишет Кэтрин Оуэнс. Несмотря на эти противоречивые темы, искусственный интеллект в военных технологиях никуда не денется.

"Мы не можем до конца знать, что принесет "эра ИИ" оборонному и ядерному сообществу, но нет сомнений в том, что она повлияет на каждую ядерную боеголовку и каждый истребитель", — подытожила она.

Ранее писали, что Госдепартамент США разработал декларацию об ответственном военном использовании ИИ. Американские политики опасаются, что внедрение таких технологий могут привести к гибели всего человечества, а вот Россия, Китай, США и Израиль пока не очень хотят ограничивать их применение в системах вооружения.