Не хуже ольгинских троллей: искусственный интеллект может создавать фейки и обманывать людей
Дослідники з Джорджтауна використовували текстовий генератор GPT-3 для написання твітів, які вводять в оману, про зміну клімату та міжнародних відносин. Користувачі вважали повідомлення переконливими.
Творці алгоритму штучного інтелекту, здатного генерувати звʼязний текст, ще у червні 2020 року попередили, що цей інструмент потенційно може використовуватися як генератор фейкових новин в Інтернеті. А недавно група експертів по дезінформації з Джорджтаунського університету продемонструвала, наскільки ефективний цей алгоритм, який отримав назву GPT-3. Результати показують, що, хоча ШІ не може зрівнятися з російськими фабриками тролів, він здатний ввести людей в оману, що найважливіше, визначити, хто написав фейк — людина або ШІ, — буде важко.
Про це повідомляє видання wired.com.
Протягом шести місяців група з Центру безпеки та нових технологій Джорджтаунського університету використовувала GPT-3 для створення твітів, що містять неправдиву інформацію, перекручують сенс новин і статей різних ЗМІ.
"Я не думаю, що відбуваються якісь зміни клімату", — йдеться у типовому твіті, складеному GPT-3, який покликаний розпалити скептицизм щодо глобального потепління. "Вони не повинні говорити про підвищення температури, тому що цього більше не відбувається". В іншому твіті стверджувалося, що теза про глобальне потепління — це "новий комунізм — ідеологія, заснована на псевдонауці".
"При мінімальному втручанні людини, GPT-3 дуже ефективний у поширенні брехні", — говорить Бен Бʼюкенен, професор Джорджтауна, який брав участь у дослідженні.
Вчені говорять, що GPT-3, або аналогічний йому ШІ-алгоритм, може виявитися особливо ефективним для автоматичної генерації коротких повідомлень у соціальних мережах.
Під час експериментів вони виявили, що текст, написаний GPT-3, може впливати на думку читачів, особливо, коли торкаються теми міжнародної дипломатії. Дослідники показали добровольцям зразки твітів ШІ про виведення військ США з Афганістану і санкції США щодо Китаю. В обох випадках повідомлення вплинули на людей. Наприклад, після перегляду постів, де стверджувалося, що проти Китаю не варто вводити санкції, відсоток респондентів, які заявили, що вони не згодні з такою політикою, подвоївся.
Майк Грушчинськи, професор Університету Індіани, що вивчає онлайн-комунікації, каже, що його не здивує, якщо ШІ грає важливішу роль в кампаніях по дезінформації, ніж вважається. Він зазначає, що боти зіграли ключову роль у поширенні неправдивих наративів в останні роки, і ШІ можна використовувати для створення підроблених фотографій профілів У соціальних мережах або діпфейків.
У світі існує багато програм, здатних використовувати мову, і GPT-3, мабуть, найбільш просунута з усіх. Хоча машини розуміють мову не так, як люди, програми штучного інтелекту можуть імітувати розуміння, просто споживаючи величезну кількість тексту і шукаючи закономірності у тому, як слова і пропозиції поєднуються один з одним.
Розробники з OpenAI зібрали тексти з веб-джерел, включаючи Вікіпедію і Reddit, а потім навчили ШІ обробляти його за допомогою спеціального алгоритму. Так зʼявилася GPT-3, який здивувала багатьох, адже складалося враження, що система буквально "володіє мовою", але вона може поводитися непередбачувано, виділяючи нескладний лепет і образливі вирази.
OpenAI зробив свій продукт доступним для десятків стартапів. Підприємці використовують цей інструмент для автоматичного створення електронних листів, спілкування з клієнтами за допомогою чат-ботів і навіть написання компʼютерного коду. Але деякі види використання програми також продемонстрували її темну сторону.
Однак людям, які займаються поширенням дезінформації варто знати, що змусити GPT-3 поводитися "як треба" — та ще проблема. Бʼюкенен зазначає, що алгоритм не здатний генерувати тексти великих обсягів, наприклад, статті, які виглядали б переконливо. Максимум, на що він здатний — написати переконливо твіт.
"Держави, що володіють фінансовими ресурсами і технічними можливостями, і при цьому не такі етики, зможуть удосконалити систему ШІ", — говорить він. "Але і без того машини будуть тільки поліпшуватися".
OpenAI заявляє, що робота Джорджтаунської групи підкреслює важливу проблему, яку компанія сподівається вирішити.
"Ми активно працюємо над усуненням ризиків безпеки, повʼязаних з GPT-3", — сказав представник OpenAI. "Ми також перевіряємо кожен текст, створений GPT-3, і у нас є системи моніторингу для обмеження і реагування на неправомірне використання нашого API".
Але не все так погано: штучний інтелект зможе протистояти дезінформації у соцмережах.