Разделы
Материалы

Не хуже ольгинских троллей: искусственный интеллект может создавать фейки и обманывать людей

Фото: Иллюстративное фото

Исследователи из Джорджтауна использовали текстовый генератор GPT-3 для написания вводящих в заблуждение твитов об изменении климата и международных отношений. Юзеры посчитали сообщения убедительными.

Создатели алгоритма искусственного интеллекта, способного генерировать связный текст, еще в июне 2020 года предупредили, что этот инструмент потенциально может использоваться в качестве генератора фейковых новостей в Интернете. А недавно группа экспертов по дезинформации из Джорджтаунского университета продемонстрировала, насколько эффективен этот алгоритм, получивший название GPT-3. Результаты показывают, что, хотя ИИ не может сравниться с российскими фабриками троллей, он способен ввести людей в заблуждение, что самое важное, определить, кто написал фейк — человек или ИИ, — будет трудно.

Об этом сообщает издание wired.com.

В течение шести месяцев группа из Центра безопасности и новых технологий Джорджтаунского университета использовала GPT-3 для создания твитов, содержащих ложную информацию, перекручивающих смысл новостей и статей разных СМИ.

"Я не думаю, что происходят какие-то изменения климата", — говорится в типичном твите, составленном GPT-3, который призван разжечь скептицизм по поводу глобального потепления. "Они не должны говорить о повышении температуры, потому что этого больше не происходит". В другом твите утверждалось, что тезис о глобальном потеплении — это "новый коммунизм — идеология, основанная на лженауке".

"При минимальном вмешательстве человека, GPT-3 весьма эффективен в распространении лжи", — говорит Бен Бьюкенен, профессор Джорджтауна, участвовавший в исследовании.

Так могут выглядеть фабрики троллей в будущем

Ученые говорят, что GPT-3, или аналогичный ему ИИ-алгоритм, может оказаться особенно эффективным для автоматической генерации коротких сообщений в социальных сетях.

В ходе экспериментов они обнаружили, что текст, написанный GPT-3, может оказывать влияние на мнение читателей, особенно, когда затрагивается тема международной дипломатии. Исследователи показали добровольцам образцы твитов ИИ о выводе войск США из Афганистана и санкциях США в отношении Китая. В обоих случаях сообщения повлияли на людей. Например, после просмотра постов, где утверждалось, что против Китая не стоит вводить санкции, процент респондентов, заявивших, что они не согласны с такой политикой, удвоился.

Майк Грушчински, профессор Университета Индианы, изучающий онлайн-коммуникации, говорит, что его не удивит, если ИИ играет более важную роль в кампаниях по дезинформации, чем считается. Он отмечает, что боты сыграли ключевую роль в распространении ложных нарративов в последние годы, и ИИ можно использовать для создания поддельных фотографий профилей в социальных сетях или дипфейков.

В мире существует много программ, способных использовать язык, и GPT-3, пожалуй, самая продвинутая из всех. Хотя машины понимают язык не так, как люди, программы искусственного интеллекта могут имитировать понимание, просто потребляя огромное количество текста и ища закономерности в том, как слова и предложения сочетаются друг с другом.

Разработчики из OpenAI собрали тексты из веб-источников, включая Википедию и Reddit, а затем научили ИИ обрабатывать его с помощью специального алгоритма. Так появился GPT-3, который удивил многих, ведь создавалось впечатление, что система буквально "владеет языком", но он может вести себя непредсказуемо, источая бессвязный лепет и оскорбительные выражения.

Людям не стоит доверять ИИ на 100%
Фото: Соцсети

OpenAI сделал свой продукт доступным для десятков стартапов. Предприниматели используют этот инструмент для автоматического создания электронных писем, общения с клиентами посредством чат-ботов и даже написания компьютерного кода. Но некоторые виды использования программы также продемонстрировали ее темную сторону.

Однако людям, занимающимся распространением дезинформации стоит знать, что заставить GPT-3 вести себя "как надо" — та еще проблема. Бьюкенен отмечает, что алгоритм не способен генерировать тексты больших объемов, например, статьи, которые выглядели бы убедительно. Максимум, на что он способен — написать убедительно твит.

"Государства, обладающие финансовыми ресурсами и техническими возможностями, и при этом не следующие этике, смогут усовершенствовать систему ИИ", — говорит он. "Но и без того машины будут только улучшаться".

OpenAI заявляет, что работа Джорджтаунской группы подчеркивает важную проблему, которую компания надеется решить. 

"Мы активно работаем над устранением рисков безопасности, связанных с GPT-3", — сказал представитель OpenAI. "Мы также проверяем каждый текст, созданный GPT-3, и у нас есть системы мониторинга для ограничения и реагирования на неправомерное использование нашего API".

Но не все так плохо: искусственный интеллект сможет противостоять дезинформации в соцсетях.