Разделы
Материалы

Ядерное оружие станет еще опаснее, если им будет управлять ИИ: гарантий безопасности нет

Ирина Рефаги
Фото: BBC | Ядерный взрыв: иллюстративное фото

Скорость, с которой могут работать нейросети, создает риск слишком быстрой эскалации ядерных конфликтов — люди могут просто не успеть вмешаться.

Согласно общепринятому мнению, искусственный интеллект (ИИ) внедряется повсеместно. Доступны чат-боты, рисующие по подсказкам нейросети, смартфоны и телевизоры с ИИ-чипами. Изменения касаются не только потребительской техники, но и военной. Сегодня возможности ИИ используют для обновления старой и весьма опасной технологии — ядерного оружия (ЯО). Насколько опасно ЯО под управлением нейросетей, выяснил Фокус.

Как ИИ может усилить ядерное оружие

В своей статье для Мedium Кен Бриггс, инженер и популяризатор науки, пишет, что алгоритмы ИИ могут радикально повысить эффективность ядерных ударов и их точность, тем самым сведя к минимуму побочный ущерб, особенно что касается тактического ядерного оружия.

Роль ИИ в проектировании и моделировании боеголовок не менее революционна. Сложные модели машинного обучения могут с высокой точностью моделировать ядерные взрывы, предоставляя бесценную информацию о последствиях ядерных взрывов. Эти знания имеют решающее значение при оптимизации конструкций боеголовок. Кроме того, ИИ-системы могут анализировать экологические и географические данные, чтобы рекомендовать оптимальные цели с учетом различных стратегических факторов.

Российское ядерное оружие
Фото: Flickr

Издание Vice США цитирует Эдварда Гейста, исследователя-политолога из корпорации RAND и автора книги "Сдерживание в условиях неопределенности: искусственный интеллект и ядерная война", который считает, что ИИ — еще недостаточно хорошо изученная технология и ее взаимодействие с давно созданным ядерным оружием требует отдельного внимания.

"Между ядерным оружием и искусственным интеллектом часто проводят параллель, подчеркивая опасность обеих технологий. К сожалею, обе эти темы заставляют даже разумных людей фантазировать, даже тех, которые имеют непосредственный опыт работы хотя бы с одной из технологий", — резюмировал Гейст.

Какие риски несет интеграция ИИ и ядерного оружия

"Интеграция ИИ с системами ядерного оружия вызывает серьезные этические вопросы и требует тщательного управления для смягчения потенциально негативных последствий", — полагает Кен Бриггс.

Одним из наиболее спорных вопросов интеграции нейросетей и ЯО, по мнению Бриггса, является делегирование принятия решений системам искусственного интеллекта, особенно в сценариях, связанных с применением ядерного оружия.

Американское ядерное оружие
Фото: iz.ru

"Перспектива того, что машины будут принимать решения о жизни и смерти, поднимает фундаментальные моральные вопросы и опасения по поводу потенциального отсутствия подотчетности и прозрачности. Скорость, с которой могут работать нейросети, также создает риск слишком быстрой эскалации конфликтов — люди просто могут не успеть вмешаться", — говорится в материале.

Интеграция ИИ в системы ядерного оружия также может привести к значительным изменениям в глобальной динамике сил. Страны, которые преуспевают в ИИ-технологиях, могут одержать верх, потенциально спровоцировав новую гонку вооружений, ориентированную на нейросети и кибервозможности. Эта гонка может усугубить глобальную напряженность и привести к усилению нестабильности, особенно в регионах, где существует ядерное соперничество.

Более того, растущую обеспокоенность вызывает риск кибератак на системы ядерного управления и контроля, дополненные искусственным интеллектом, подчеркивает Кен. Уязвимость этих систем к взлому или сбоям может привести к случайным запускам или несанкционированному использованию ЯО, добавляя еще больше риска для глобальной безопасности.

"Поскольку ИИ продолжает развиваться, крайне важно, чтобы международные правила, этические рекомендации и надежные меры кибербезопасности предпринимались параллельно его развитию для смягчения вышеперечисленных рисков. Будущее ядерной войны и обороны, которое сейчас неразрывно связано с ИИ, необходимо рассматривать с осторожностью, гарантируя, что эти мощные технологии будут служить укреплению глобальной безопасности, а не подрывать ее", — резюмировал автор.

Ранее мы писали о том, что ученые в шаге от создания интерфейса "мозг-компьютер". Прозрачный датчик из графена смог считать данные, которые передают нейроны, а искусственный интеллект смог их понять и расшифровать.