ИИ начнет атаковать социальные сети: какая опасность грозит пользователям
Эксперты в области ИИ предупреждают: соцсети готовятся к вторжению так называемых "роев ИИ". Скоординированные группы автономных агентов способны имитировать поведение людей столь убедительно, что смогут распространять ложные нарративы в массы.
Это новый феномен в информационной войне, последствия которого сложно предсказать, пишет Live Science со ссылкой на публикацию в научном журнале Science.
Психология толпы и цифровая травля
Исследователи отмечают, что главная опасность состоит в эксплуатации психологии конформизма. Люди склонны присоединяться к мнению большинства. ИИ-агенты могут искусственно создавать иллюзию массовой поддержки той или иной идеи, заставляя реальных пользователей менять свое мнение.
Если же пользователь отстаивает свою позицию, "рой" ИИ-агентов может переключиться на тактику агрессии. Имитируя разъяренную толпу, они способны скоординированно травить человека с альтернативной точкой зрения, вынуждая его покинуть платформу. Соавтор исследования Йонас Кунст из Норвежской бизнес-школы BI подчеркивает, что такие системы могут быть легко использованы неизвестными группами, политическими партиями или даже государствами для влияние на общественное мнение.
Чем это отличается от обычных ботов
Интернет уже переполнен ботами, на которых приходится значительная часть веб-трафика. Однако традиционные боты выполняют простые, повторяющиеся действия и их относительно легко обнаружить.
"Рои" нового поколения работают под управлением больших языковых моделей (LLM) — тех же технологий, что стоят за ChatGPT. Это делает их намного опаснее. Агенты могут запоминать контекст, иметь уникальные "личности" и адаптироваться к стилю общения конкретного сообщества.
Эксперимент на Reddit показал, что ответы ИИ-чатботов могут быть в 3–6 раз убедительнее, чем доводы реальных людей. Алгоритм самодостаточен, учится и специализируется на поиске уязвимостей в человеческом восприятии.
Способы защиты
Ученые пока не могут назвать точные сроки начала массового "вторжения ИИ", но уверены, что действовать нужно на упреждение. В качестве мер защиты предлагается усилить аутентификацию пользователей в соцсетях, требуя доказательств, что аккаунт принадлежит реальному человеку. Однако это палка о двух концах: деанонимизация может ударить по людям, живущим в странах с жесткой цензурой, где анонимность необходима для безопасности.
Также предлагается создание "Обсерваторий влияния ИИ" — организаций, которые будут отслеживать аномальные паттерны трафика и предупреждать о скоординированных атаках до того, как они нанесут непоправимый вред обществу.
Ранее сообщалось, что ChatGPT не разрушил рынок труда. Искусственный интеллект не привел к "апокалипсису рабочих мест", о котором предупреждали некоторые международные организации. Напротив, после запуска ChatGPT рынок труда в развитых экономиках демонстрирует устойчивость, а в отдельных сегментах — даже рост занятости.