"Можуть раптово спалахнути": Росія використала ШІ від OpenAI проти України, — FT
Під час операцій "Доппельгангер" і "Погана граматика" росіяни намагалися позбавити Україну підтримки партнерів, створюючи контент за допомогою нейромереж.
Структури, пов'язані з Росією, Китаєм, Іраном та Ізраїлем, використовують інструменти штучного інтелекту компанії OpenAI, яка створила чат-бот ChatGPT, для створення і поширення дезінформації, зокрема про війну в Україні. Про це пише Financial Times.
Як зазначають у компанії, моделі штучного інтелекту OpenAI для генерації тексту та зображень були використані у великих обсягах у п'яти операціях прихованого впливу та для створення коментарів. Згаданий контент стосувався війни в Україні, конфлікту в Секторі Гази, виборів в Індії, а також політики в Європі, США та Китаї. ШІ також використовувався для підвищення продуктивності, зокрема налагодження коду та дослідження активності в соціальних мережах.
Згідно зі звітом OpenAI, інструменти компанії використовувалися, зокрема, в операції Росії "Доппельгангер", спрямованій на підрив підтримки України. Також згадується російська операція "Погана граматика". За даними компанії, зловмисники використовували моделі OpenAI для налагодження коду для запуску бота Telegram, а також для створення коротких коментарів на політичні теми російською та англійською мовами для поширення в Telegram.
Крім того, за даними видання, інструменти ШІ від OpenAI використовувала китайська мережа "Спамуфляж", яка просуває інтереси Пекіна за кордон. Йдеться про створення тексту і коментарів для публікації в соціальній мережі X. Також повідомляється про запобігання кампанії Ізраїлю, імовірно, організованої компанією STOIC, яка використовувала ШІ для створення статей і коментарів в Instagram, Facebook і X.
Політика OpenAI забороняє використання її моделей для обману або введення в оману інших. У компанії заявили, що працюють над виявленням кампаній з дезінформації, а також створюють інструменти на базі ШІ, щоб робити це ефективніше. Представники OpenAI запевняють, що вже ускладнили роботу зловмисників і їхні моделі не раз відмовлялися генерувати запитаний контент.
Головний дослідник відділу розвідки і розслідувань OpenAI Бен Німмо в розмові з журналістами заявив, що використання моделей OpenAI в кампаніях "незначно" зросло.
"Зараз не час для самозаспокоєння. Історія показує, що операції впливу, які роками не приносили результатів, можуть раптово спалахнути, якщо їх ніхто не шукає", — наголосив Бен Німмо.
Нагадаємо, компанія OpenAI протестувала свою систему штучного інтелекту GPT-4, щоб зрозуміти, чи представляє він будь-які загрози для людства. Фахівці виявили "невеликий ризик", що він допоможе людям створити смертоносну біологічну зброю.
Також повідомлялося, що компанія OpenAI оголосила про партнерство з медіаконгломератом Axel Springer. На думку експертів, партнерство OpenAI з низкою великих медіа може обмежити доступ користувачів до достовірної інформації, оскільки ChatGPT стане монополістом на ринку інформаційних чат-ботів.