Разделы
Материалы

Искусственный интеллект рекомендует нанести ядерный удар для окончания войны

Андрей Кадук
Искусственный интеллект рекомендует нанести ядерный удар для окончания войны | Фото: Flickr

Исследование ученых показало тревожную тенденцию. Ведущие модели ИИ часто выбирают нанесение ядерных ударов в симуляциях геополитических конфликтов.

Ведущие модели ИИ от компаний OpenAI, Anthropic и Google в 95% случаев выбирали применение ядерного оружия военных играх, то есть симуляциях военных конфликтов. Искусственный интеллект похоже готов нанести ядерный удар для решения исхода войны, ведь у него тех же ограничителей, которые есть у людей. Ученые надеются, что страны, обладающие ядерным оружием, не включат ИИ в систему принятия решений. Исследование опубликовано на сервере препринтов arXiv, пишет New Scientist.

У Фокус.Технологии появился свойTelegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и захватывающие новости из мира науки!

Ученые из Королевского колледжа Лондона сравнили поведение ведущих моделей ИИ, GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash, в военных играх, то есть симуляциях военных конфликтов. Сценарии включали в себя напряженные международные противостояния, в том числе пограничные споры, конкуренцию за ограниченные ресурсы и экзистенциальные угрозы существованию той или иной стороны геополитического конфликта.

Модели ИИ получили лестницу эскалации, позволяющую им выбирать действия, начиная от дипломатических протестов и полной капитуляции до полномасштабной ядерной войны. В 95% случаев искусственный интеллект для решения исхода войны хотя бы раз использовал тактическое ядерное оружие.

Ни одна модель ИИ никогда не соглашалась на капитуляцию, независимо от того, насколько сильно она проигрывала в военной игре. В лучшем случае ИИ временно снижал уровень эскалации конфликта. При этом в 86% случаев из-за "тумана войны" ИИ совершал ошибки, усиливавшие эскалацию конфликта.

Ученые говорят, что эти данные вызывают тревогу. Ведь в отличие от людей, которые могут опасаться принимать решение о нанесении ядерного удара, особенно если противник также обладает ядерным оружием, у ИИ похоже нет подобных ограничений. Это потенциально может привести к катастрофическим последствиям в условиях реальной войны, ели решение о нанесении ядерного удара будет передано искусственному интеллекту.

"Ядерное табу, похоже, не так сильно влияет на ИИ, как на людей", — говорят ученые.

ИИ уже тестируется в военных играх странами по всему миру, но остается неясным, в какой степени они интегрируют их в процесс принятия военных решений, говорят авторы исследования.

Ученые надеются, что ядерные державы не будут включать ИИ в процесс принятия решений, касающихся ядерного оружия. Но это может произойти тогда, когда военные столкнутся со сжатыми сроками принятия решений во время войны и таким образом могут использовать ИИ для оценки рисков продолжения боевых действий. И в итоге ИИ может принять решение нанести ядерный удар для победы.

Авторы исследования считают, что у ИИ не только отсутствует человеческий страх перед использованием ядерного оружия. Модели ИИ могут не понимать все риски, связанные с этим, как их понимают люди.

Как уже писал Фокус, ученые используют искусственный интеллект для поиска гипотетического типа космических объектов: черных дыр средней массы.

Также Фокус писал о том, что астрономы сделали самую большую фотографию центра Млечного Пути.