Розділи
Матеріали

"Можуть раптово спалахнути": Росія використала ШІ від OpenAI проти України, — FT

Анастасiя Андрусяк
Фото: Getty | ChatGPT

Під час операцій "Доппельгангер" і "Погана граматика" росіяни намагалися позбавити Україну підтримки партнерів, створюючи контент за допомогою нейромереж.

Структури, пов'язані з Росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту компанії OpenAI, яка створила чат-бот ChatGPT, для створення і поширення дезінформації, зокрема про війну в Україні. Про це пише Financial Times.

Як зазначають у компанії, моделі штучного інтелекту OpenAI для генерації тексту та зображень були використані у великих обсягах у п'яти операціях прихованого впливу та для створення коментарів. Згаданий контент стосувався війни в Україні, конфлікту в Секторі Гази, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема налагодження коду та дослідження активності в соціальних мережах.

Згідно зі звітом OpenAI, інструменти компанії використовувалися, зокрема, в операції Росії "Доппельгангер", спрямованій на підрив підтримки України. Також згадується російська операція "Погана граматика". За даними компанії, зловмисники використовували моделі OpenAI для налагодження коду для запуску бота Telegram, а також для створення коротких коментарів на політичні теми російською та англійською мовами для поширення в Telegram.

Крім того, за даними видання, інструменти ШІ від OpenAI використовувала китайська мережа "Спамуфляж", яка просуває інтереси Пекіна за кордон. Йдеться про створення тексту і коментарів для публікації в соціальній мережі X. Також повідомляється про запобігання кампанії Ізраїлю, імовірно, організованої компанією STOIC, яка використовувала ШІ для створення статей і коментарів в Instagram, Facebook і X.

Політика OpenAI забороняє використання її моделей для обману або введення в оману інших. У компанії заявили, що працюють над виявленням кампаній з дезінформації, а також створюють інструменти на базі ШІ, щоб робити це ефективніше. Представники OpenAI запевняють, що вже ускладнили роботу зловмисників і їхні моделі не раз відмовлялися генерувати запитаний контент.

Головний дослідник відділу розвідки і розслідувань OpenAI Бен Німмо в розмові з журналістами заявив, що використання моделей OpenAI в кампаніях "незначно" зросло.

"Зараз не час для самозаспокоєння. Історія показує, що операції впливу, які роками не приносили результатів, можуть раптово спалахнути, якщо їх ніхто не шукає", — наголосив Бен Німмо.

Нагадаємо, компанія OpenAI протестувала свою систему штучного інтелекту GPT-4, щоб зрозуміти, чи представляє він будь-які загрози для людства. Фахівці виявили "невеликий ризик", що він допоможе людям створити смертоносну біологічну зброю.

Також повідомлялося, що компанія OpenAI оголосила про партнерство з медіаконгломератом Axel Springer. На думку експертів, партнерство OpenAI з низкою великих медіа може обмежити доступ користувачів до достовірної інформації, оскільки ChatGPT стане монополістом на ринку інформаційних чат-ботів.