Stop Fake: як штучний інтелект зможе протистояти дезінформації в соцмережах
Нова система по відстеженню та аналізу акаунтів, що поширюють фейки у соцмережах, здатна відрізнити людей від ботів, що докорінно вирішить проблему.
Кампанії по дезінформації проводилися в усі часи — під час двох світових воєн до цього "інструменту" вдавалися всі воюючі сторони, щоб налаштувати суспільство проти ворога. Але якщо раніше розкидали листівки і знімали короткометражні фільми для демонстрації до кінотеатрів перед сеансом, то сьогодні вся пропагандистська міць зосереджена в Інтернеті, а конкретно — у соціальних мережах. Саме соцмережі стали вельми зручним місцем для поширення дезінформації. Ми з вами вже були свідками того, як можна вплинути на вибори, зміцнити теорії змови і посіяти ворожнечу між різними спільнотами, влаштувавши справжні віртуальні війни. І поки глави технологічних компаній намагаються домовитися з державами про врегулювання користування онлайн-платформами, вчені пропонують реальний інструментарій для вирішення проблеми поширення фейків.
Штучний інтелект у пошуках фейків
Вчені, що працюють в лабораторії Лінкольна Массачусетського технологічного інституту поставили перед собою завдання: краще зрозуміти природу кампаній по поширенню фейкової інформації. Вони розробили і запустили програму Reconnaissance of Influence Operations (RIO), здатну автоматично виявляти неправдиві повідомлення, а також їх авторів і тих людей, які поширюють їх у соціальних мережах.
Щоб досягти поставленої мети, довелося чимало потрудитися, адже проект був розгорнутий у 2014 році, коли команда дослідників під керівництвом Стівена Сміта, фахівця з архітектури і алгоритмів програмного забезпечення для штучного інтелекту, вивчала методику дезінформаторів, яка застосовується у соцмережах. У їх поле зору потрапили акаунти, які просувають проросійські наративи "надто" активно. Тоді вчені задалися питанням: чи можлива подібна поведінка перед виборами у Франції у 2017 році? На той момент система RIO була готова до роботи, тому прийняли рішення про її запуск "в полі".
За 30 днів до виборів RIO збирала дані соціальних мереж в режимі реального часу, шукала і аналізувала методи поширення дезінформації. Загалом вони зібрали 28 мільйонів постів у Twitter від 1 мільйона акаунтів.
Дезінформатор на гачку
Дослідники визнають, що RIO — не ідеальна, оскільки змогла визначити акаунти, що постять фейки, з точністю 96%. Проте, це непоганий результат.
Унікальність системи RIO полягає у тому, що вона поєднує в собі кілька аналітичних методів, що дозволяють отримати повне уявлення про те, де і як поширюються дезінформаційні наративи.
"Якщо ви намагаєтеся відповісти на питання про те, хто має вплив у соціальній мережі, зазвичай люди дивляться на показники активності", — говорить Едвард Као, член дослідницької групи. "Наприклад, у Twitter аналітики будуть враховувати кількість твітів і ретвітів. Але ми виявили, що у багатьох випадках цього недостатньо. Насправді це нічого не говорить про вплив таких акаунтів на спільноту тієї чи іншої соцмережі".
У підсумку, Као розробив статистичний підхід, який тепер використовується RIO, щоб допомогти визначити не тільки чи поширює певний акаунт у соціальних мережах дезінформацію, а й наскільки сильно ці фейки впливають на інші акаунти, групи, спільноти.
Еріка Маккін, ще один член дослідницької групи, також застосувала новий підхід до машинного навчання, який допомагає RIO класифікувати облікові записи, яка дезінформують, вивчаючи дані, пов'язані з поведінкою, наприклад, чи взаємодіє обліковий запис з іноземними ЗМІ та які мови він використовує. Такий підхід дозволяє RIO виявляти ворожі акаунти, які активно беруть участь у різних кампаніях, від президентських виборів у Франції у 2017 році до поширення дезінформації про Covid-19.
Боротьба з фабриками тролів
Ще одним унікальним аспектом ШІ-системи є те, що вона може виявляти і кількісно оцінювати вплив облікових записів, якими керують як боти, так і реальні люди, тоді як більшість використовуваних сьогодні автоматизованих систем виявляють тільки спамерських пошукових роботів. RIO також здатна спрогнозувати, як різні контрзаходи можуть зупинити поширення тієї чи іншої кампанії дезінформації.
Команда передбачає, що розроблені нею ШІ-алгоритми будуть використовуватися як урядами, так і приватними компаніями, і не тільки у соціальних мережах, але і в онлайнових ЗМІ, таких як газети, журнали і телебачення.
Зараз учені працюють над створенням нової програми для вивчення того, як дезінформація впливає на індивідуальну поведінку людей і міжособистісні відносини.
"Захист від дезінформації — це не тільки питання національної безпеки, а й захист демократії", — підкреслює Едвард Као.
Рекомендуємо також ознайомитися з нашим матеріалом Думай, як я: штучний інтелект навчать мислити по-людськи, де йдеться про створення математичних моделей, що імітують діяльність людського мозку.