ИИ "придумывает" свои социальные нормы и язык без человека: что выявили ученые
Исследователи выявили, что группы моделей искусственного интеллекта LLM, самой известной из которых сегодня является ChatGPT, могут спонтанно достигать консенсуса по языковым и социальным нормам, как это делают люди.
Результаты экспериментов описаны в пресс-релизе на портале EurekAlert. По словам ученых, когда агенты ИИ с LLM общаются в группах, они не просто следуют сценариям или повторяют шаблоны, но и самоорганизуются.
"Мы хотели узнать: могут ли эти модели координировать свое поведение, формируя соглашения, строительные блоки общества? Ответ — да, и то, что они делают вместе, не может быть сведено к тому, что они делают по отдельности", — рассказала ведущий автор исследования Ариэль Флинт Эшери.
Как проходило исследование
Чтобы изучить коллективное поведение агентов ИИ, ученые адаптировали классическую структуру для изучения социальных соглашений у людей, основанную на модели формирования соглашений "игры в наименования".
В рамках экспериментов были сформированы группы, в которых было от 24 до 200 агентов LLM. Кроме того, в каждом эксперименте два агента LLM были случайным образом объединены в пары и им было предложено выбрать "имя". Если оба агента выбирали одно и то же имя, они получали вознаграждение; в противном случае они получали штраф и им показывали выбор друг друга.
Что показали эксперименты
Агенты ИИ имели доступ только к ограниченной памяти своих недавних взаимодействий и им не говорили, что они являются частью группы. При этом многие группы могли спонтанно прийти к консенсусу по поводу "имени" без какой-либо центральной координации или предопределенного решения. Это напоминает давний способ формирования норм в человеческих культурах.
ВажноБолее того, исследователи заметили коллективные предубеждения, которые нельзя было отследить до отдельных агентов. Команда была удивлена тем, что они возникают между агентами — просто из их взаимодействий.
"Понимание того, как они работают, является ключом к руководству нашим сосуществованием с ИИ, а не к подчинению ему. Мы вступаем в мир, где ИИ не просто говорит — он договаривается, согласовывает и иногда не соглашается по поводу общего поведения, как и мы", — заключил профессор Барончелли.
Напомним, исследователи из Токийского университета выявили сходство чат-ботов на основе ИИ с людьми, страдающими афазией.
В свою очередь ученые из Оксфордского университета и Института искусственного интеллекта Аллена выяснили, что LLM распознают незнакомые слова способом, очень похожим на человеческий.