Stop Fake: как искусственный интеллект сможет противостоять дезинформации в соцсетях
Новая система по отслеживанию и анализу аккаунтов, распространяющих фейки в соцсетях, способна отличить людей от ботов, что решит проблему в корне.
Кампании по дезинформации проводились во все времена — в ходе двух мировых войн к этому "инструменту" прибегали все воюющие стороны, чтобы настроить общество против врага. Но если ранее разбрасывали листовки и снимали короткометражные фильмы для демонстрации к кинотеатрах перед сеансом, то сегодня вся пропагандистская мощь сосредоточена в Интернете, а конкретно — в социальных сетях. Именно соцсети стали весьма удобным местом для распространения дезинформации. Мы с вами уже были свидетелями того, как можно повлиять на выборы, укрепить теории заговора и посеять вражду между разными сообществами, устроив настоящие виртуальные войны. И пока главы технологичных компаний пытаются договориться с государствами об урегулировании пользования онлайн-платформами, ученые предлагают реальный инструментарий для решения проблемы распространения фейков.
Искусственный интеллект в поисках фейков
Ученые, работающие в лаборатории Линкольна Массачусетского технологического института поставили перед собой задачу: лучше понять природу кампаний по распространению фейковой информации. Они разработали и запустили программу Reconnaissance of Influence Operations (RIO), способную автоматически обнаруживать неправдивые сообщения, а также их авторов и тех людей, которые распространяют их в социальных сетях.
Чтобы достичь намеченной цели, пришлось немало потрудиться, ведь проект был развернут в 2014 году, когда команда исследователей под руководством Стивена Смита, специалиста по архитектуре и алгоритмам программного обеспечения для искусственного интеллекта, изучала методику дезинформаторов, применяемую в соцсетях. В их поле зрения попали аккаунты, продвигающие пророссийские нарративы "чересчур" активно. Тогда ученые задались вопросом: возможно ли подобное поведение перед выборами во Франции в 2017 году? На тот момент система RIO была готова к работе, поэтому приняли решение о ее запуске "в поле".
За 30 дней до выборов RIO собирала данные социальных сетей в режиме реального времени, искала и анализировала методы распространения дезинформации. В общей сложности они собрали 28 миллионов постов в Twitter от 1 миллиона аккаунтов.
Дезинформатор на крючке
Исследователи признают, что RIO — не идеальна, потому как смогла определить аккаунты, постящие фейки, с точностью 96%. Тем не менее, это неплохой результат.
Уникальность системы RIO заключается в том, что она сочетает в себе несколько аналитических методов, позволяющих получить полное представление о том, где и как распространяются дезинформационные нарративы.
"Если вы пытаетесь ответить на вопрос о том, кто имеет влияние в социальной сети, обычно люди смотрят на показатели активности", — говорит Эдвард Као, член исследовательской группы. "Например, в Twitter аналитики будут учитывать количество твитов и ретвитов. Но мы обнаружили, что во многих случаях этого недостаточно. На самом деле это ничего не говорит о влиянии данных аккаунтов на сообщество той или иной соцсети".
В итоге, Као разработал статистический подход, который теперь используется RIO, чтобы помочь определить не только, распространяет ли определенный аккаунт в социальных сетях дезинформацию, но и насколько сильно эти фейки влияют на другие аккаунты, группы, сообщества.
Эрика Маккин, еще один член исследовательской группы, также применила новый подход к машинному обучению, который помогает RIO классифицировать дезинформирующие учетные записи, изучая данные, связанные с поведением, например, взаимодействует ли учетная запись с иностранными СМИ и какие языки она использует. Такой подход позволяет RIO обнаруживать враждебные аккаунты, которые активно участвуют в различных кампаниях, от президентских выборов во Франции в 2017 году до распространения дезинформации о Covid-19.
Борьба с фабриками троллей
Еще одним уникальным аспектом ИИ-системы является то, что она может обнаруживать и количественно оценивать влияние учетных записей, которыми управляют как боты, так и реальные люди, тогда как большинство используемых сегодня автоматизированных систем обнаруживают только ботов. RIO также способна спрогнозировать, как различные контрмеры могут остановить распространение той или иной кампании дезинформации.
Команда предполагает, что разработанные ею ИИ-алгоритмы будут использоваться как правительствами, так и частными компаниями, и не только в социальных сетях, но и в онлайновых СМИ, таких как газеты, журналы и телевидение.
В настоящее время ученые работают над созданием новой программы для изучения того, как дезинформация влияет на индивидуальное поведение людей и межличностные отношения.
"Защита от дезинформации — это не только вопрос национальной безопасности, но и защита демократии", — подчеркивает Эдвард Као.
Рекомендуем также ознакомиться с нашим материалом Думай, как я: искусственный интеллект научат мыслить по-человечески, где речь идет о создании математических моделей, имитирующих деятельность человеческого мозга.