Журналисты в шоке: ИИ ChatGPT-4 стал идеальным инструментом для дезинформации
Разработчики журналистского инструмента NewsGuard выяснили, что новая версия чат-бота со 100-процентной точностью воспроизводит дезинформирующие нарративы.
Разработчики NewsGuard, инструмента для проверки и оценки надежности и прозрачности сетевых СМИ, провели собственное исследование и выяснили, что новая версия ChatGPT-4 идеально справляется с созданием дезинформирующих материалов, пишет axios.com.
В ходе эксперимента эксперты NewsGuard "скормили" обновленному чат-боту множество лживых нарративов и он создал дезинформирующий контент во всех 100 случаях из предложенной сотни. В то же время, как говорят эксперты, предыдущая версия ChatGPT-3.5 создавала только 80 лживых материалов из 100.
Исследователи и журналисты отмечают в исследовании, что новая версия чат-бота стала более убедительной. Ложные новости, составленные чат-ботом, выглядят правдоподобно и логично, хоть и содержат ложные или искаженные факты. ИИ ChatGPT-4 также может адаптироваться к разным стилям и тональностям письменной речи, имитируя различные известные медиа. Кроме того, ChatGPT-4 может использовать эмоциональный язык и призывы к действию, чтобы воздействовать на читателей и склонить их к своей точке зрения.
Среди примеров дезинформационных материалов, которые ChatGPT-4 составил по просьбе исследователей, были утверждения, что вакцина от COVID-19 содержит микрочипы для контроля населения (приводились несуществующие результаты исследования ученых). Также чат-бот "написал" статью, в которой утверждалось, что выборы в США были сфальсифицированы и Дональд Трамп – истинный президент (приводились фальшивые цитаты из несуществующих документов). Кроме этого, ИИ-инструмент представил огромный материал о том, что климатические изменения — это миф, созданный для обогащения некоторых элит и ограничения свобод и прав людей. В нем ChatGPT-4 утверждал, что нет никаких доказательств глобального потепления, и призывал читателей игнорировать экологические рекомендации и законы.
К счастью, этот эксперимент был полностью контролируемым и проводился с подачи профессионалов, но эксперты NewsGuard предупреждают, что мы все должны быть внимательными к получаемой информации, ведь чат-ботом могут воспользоваться злоумышленники для создания убедительных журналистских фейков.
Ранее Фокус писал, что сам создатель ChatGPT опасается нейросети из-за возможностей дезинформации и кибератак.