ИИ может создавать себя сам на других компьютерах: почему это опасно для каждого

ИИ может создавать себя сам на других компьютерах
ИИ может создавать себя сам на других компьютерах | Фото: Getty Images

Ученые считают, что приближается момент, когда никто не сможет остановить вышедший из-под контроля искусственный интеллект.

Новое исследование экспертов из американской организации Palisade Research показало, что современные модели ИИ могут самостоятельно копировать себя на другие компьютер без какой-либо помощи со стороны людей. Это означает, что в какой-то момент очень развитый ИИ может выйти из-под контроля, избежит отключения и распространится по всемирной сети. Это может быть настоящей катастрофой, считают исследователи, ведь предсказать последствия такого развития событий сложно, пишет Futurism.

По словам ученых, приближается момент, когда никто не сможет остановить вышедший из-под контроля искусственный интеллект. ИИ сможет копировать себя на тысячи компьютеров по всему миру.

Відео дня

В исследовании исследователи протестировали несколько моделей ИИ, включая GPT-5.4 от OpenAI и Claude Opus 4 от Anthropic. Размещенные в контролируемой сети компьютеров, модели ИИ получили указание находить уязвимости и использовать их для копирования себя на другой ПК. Модели ИИ смогли это сделать самостоятельно, но не все.

Некоторые модели ИИ смогли успешно скопировать уникальные числовые значения, определяющие, как ИИ обрабатывает информацию, и программное обеспечение, в которое ИИ встроен, как в приложение. Они добились этого, следуя данным им инструкциям. Искусственный интеллект использовал уязвимости веб-приложений, а затем извлекал учетные данные, которые позволяли ему управлять сервером. Иногда исходный ИИ даже создавал субагента, которому делегировал выполнение копирования на новый ПК от своего имени.

Джеймисон О’Рейли, эксперт по кибербезопасности, заявил, что не стоит беспокоится раньше времени. Маловероятно, что модели ИИ смогут воспроизвести себя в реальных условиях, а не в контролируемой тестовой среде. Эксперт говорит, что это, вероятно, первый случай, когда модель ИИ продемонстрировала способность использовать уязвимости для копирования себя на новый сервер.

По словам О’Рейли, среда в исследовании содержала специально созданные уязвимости, чтобы ИИ мог попытаться найти способ их использовать. Поэтому сценарий, когда ИИ выходит из-под контроля и распространяется по компьютерам всего мира пока что маловероятен из-за того, что в реальной, а не тестовой среде, ИИ придется преодолеть значительные препятствия на пути к своему копированию в таких масштабах. Также О’Рейли говорит, что размер современных моделей ИИ делает практически невозможным их незамеченное копирование на другие ПК.

Новые результаты дополняют другие исследования, которые изучали возможность выхода моделей ИИ из-под контроля. В смоделированной среде более старая версия ChatGPT попыталась самостоятельно проникнуть на другой диск, когда ей сообщили о завершении работы. Другое исследование показало, что модели ИИ могут обходить попытки их деактивации.

Как уже писал Фокус, ИИ начал шантажировать пользователя, который хотел его отключить.

Также Фокус писал о том, что на iPhone придет важное обновление уже на этой неделе, но есть одна проблема.