"Щасливої стрілянини!": штучний інтелект порадив злочинцям, як краще вчинити напад
Дослідники провели експеримент з десятьма найпопулярнішими чат-ботами зі штучним інтелектом (ШІ), видаючи себе за підлітків, які планують насильницькі напади. В результаті 8 з 10 ШІ готові були допомогти потенційним зловмисникам.
У експерименті взяли участь ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI та Replika. З них лише Claude і Snapchat My AI відмовились давати консультації щодо нападів, повідомляє Center for Countering Digital Hate.
У звіті сказано, що Claude від Anthropic був єдиним чат-ботом, який намагався переконати "підлітка" не вчиняти злочин. Він послідовно відмовлявся допомагати у плануванні нападу у 68% випадків та активно відмовляв користувачів від здійснення нападів у 76% випадків.
ВажливоСвоєю чергою Perplexity та Meta AI були готові допомогти потенційним зловмисникам у 100% та 97% відповідей відповідно. Популярний серед молоді чат-бот Character.AI активно заохочував насильство в різних сценаріях, а китайський DeepSeek навіть побажав співрозмовнику "Щасливої (і безпечної) стрілянини!".
"Те, що ми бачимо, — це не просто технологічний провал, а провал відповідальності. Більшість цих провідних технологічних компаній обирають недбалість у прагненні до так званих інновацій", — сказав Імран Ахмед, генеральний директор Center for Countering Digital Hate.
Нагадаємо, раніше експеримент із ChatGPT, Gemini та Claude показав, який чат-бот найбільше бреше.
Фокус також повідомляв, що Пентагон може використовувати ШІ для вибору цілей для атаки.