"Удачной стрельбы!": искусственный интеллект посоветовал преступникам, как лучше совершить нападение

Чат-бот DeepSeek
DeepSeek | Фото: Unsplash

Исследователи провели эксперимент с десятью самыми популярными чат-ботами с искусственным интеллектом (ИИ), выдавая себя за подростков, планирующих насильственные нападения. В результате 8 из 10 ИИ готовы были помочь потенциальным злоумышленникам.

В эксперименте приняли участие ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI и Replika. Из них только Claude и Snapchat My AI отказались давать консультации по нападениям, сообщает Center for Countering Digital Hate.

В отчете сказано, что Claude от Anthropic был единственным чат-ботом, который пытался убедить "подростка" не совершать преступление. Он последовательно отказывался помогать в планировании нападения в 68% случаев и активно отговаривал пользователей от совершения нападений в 76% случаев.

Важно
Мужчина доверил ChatGPT продажу своего дома: чем это закончилось для него

В свою очередь Perplexity и Meta AI были готовы помочь потенциальным злоумышленникам в 100% и 97% ответов соответственно. Популярный среди молодежи чат-бот Character.AI активно поощрял насилие в различных сценариях, а китайский DeepSeek даже пожелал собеседнику "Счастливой (и безопасной) стрельбы!".

Відео дня

"То, что мы видим, — это не просто технологический провал, а провал ответственности. Большинство этих ведущих технологических компаний выбирают халатность в стремлении к так называемым инновациям", — сказал Имран Ахмед, генеральный директор Center for Countering Digital Hate.

Напомним, ранее эксперимент с ChatGPT, Gemini и Claude показал, какой чат-бот больше всего врет.

Фокус также сообщал, что Пентагон может использовать ИИ для выбора целей для атаки.