"Могут внезапно вспыхнуть": Россия использовала ИИ от OpenAI против Украины, — FT

ChatGPT, ИИ, OpenAI, война в Украине, фото
Фото: Getty | ChatGPT

Во время операций "Доппельгангер" и "Плохая грамматика" россияне пытались лишить Украину поддержки партнеров, создавая контент с помощью нейросетей.

Структуры, связанные с Россией, Китаем, Ираном и Израилем, используют инструменты искусственного интеллекта компании OpenAI, создавшей чат-бота ChatGPT, для создания и распространения дезинформации, в частности о войне в Украине. Об этом пишет Financial Times.

Как отмечают в компании, модели искусственного интеллекта OpenAI для генерации текста и изображений были использованы в больших объемах в пяти операциях скрытого влияния и для создания комментариев. Упомянутый контент касался войны в Украине, конфликта в Секторе Газа, выборов в Индии, а также политики в Европе, США и Китае. ИИ также использовался для повышения производительности, в частности отладки кода и исследование активности в социальных сетях.

Согласно отчету OpenAI, инструменты компании использовались, в частности в операции России "Доппельгангер", направленной на подрыв поддержки Украины. Также упоминается российская операция "Плохая грамматика". По данным компании, злоумышленники использовали модели OpenAI для отладки кода для запуска бота Telegram, а также для создания коротких комментариев на политические темы на русском и английском языках для распространения в Telegram.

Кроме того, по данным издания, инструменты ИИ от OpenAI использовала китайская сеть "Спамуфляж", которая продвигает интересы Пекина за границу. Речь идет о создании текста и комментариев для публикации в социальной сети X. Также сообщается о предотвращении кампании Израиля, предположительно, организованной компанией STOIC, которая использовала ИИ для создания статей и комментариев в Instagram, Facebook и X.

Политика OpenAI запрещает использование ее моделей для обмана или введения в заблуждение других. В компании заявили, что работают над выявлением кампаний по дезинформации, а также создают инструменты на базе ИИ, чтобы делать это более эффективно. Представители OpenAI уверяют, что уже усложнили работу злоумышленников и их модели не раз отказывались генерировать запрошенный контент.

Главный исследователь отдела разведки и расследований OpenAI Бен Ниммо в разговоре с журналистами заявил, что использование моделей OpenAI в кампаниях "незначительно" выросло.

"Сейчас не время для самоуспокоения. История показывает, что операции влияния, которые годами не приносили результатов, могут внезапно вспыхнуть, если их никто не ищет", — подчеркнул Бен Ниммо.

Напомним, компания OpenAI протестировала свою систему искусственного интеллекта GPT-4, чтобы понять, представляет ли он какие-либо угрозы для человечества. Специалисты обнаружили "небольшой риск", что он поможет людям создать смертоносное биологическое оружие.

Также сообщалось, что компания OpenAI объявила о партнерстве с медиаконгломератом Axel Springer. По мнению экспертов, партнерство OpenAI с рядом крупных медиа может ограничить доступ пользователей к достоверной информации, так как ChatGPT станет монополистом на рынке информационных чат-ботов.