ИИ "придумывает" свои социальные нормы и язык без человека: что выявили ученые

ИИ, ноутбук
Ноутбук (фото иллюстративное) | Фото: Freepik

Исследователи выявили, что группы моделей искусственного интеллекта LLM, самой известной из которых сегодня является ChatGPT, могут спонтанно достигать консенсуса по языковым и социальным нормам, как это делают люди.

Результаты экспериментов описаны в пресс-релизе на портале EurekAlert. По словам ученых, когда агенты ИИ с LLM общаются в группах, они не просто следуют сценариям или повторяют шаблоны, но и самоорганизуются.

"Мы хотели узнать: могут ли эти модели координировать свое поведение, формируя соглашения, строительные блоки общества? Ответ — да, и то, что они делают вместе, не может быть сведено к тому, что они делают по отдельности", — рассказала ведущий автор исследования Ариэль Флинт Эшери.

Как проходило исследование

Чтобы изучить коллективное поведение агентов ИИ, ученые адаптировали классическую структуру для изучения социальных соглашений у людей, основанную на модели формирования соглашений "игры в наименования".

Відео дня

В рамках экспериментов были сформированы группы, в которых было от 24 до 200 агентов LLM. Кроме того, в каждом эксперименте два агента LLM были случайным образом объединены в пары и им было предложено выбрать "имя". Если оба агента выбирали одно и то же имя, они получали вознаграждение; в противном случае они получали штраф и им показывали выбор друг друга.

Что показали эксперименты

Агенты ИИ имели доступ только к ограниченной памяти своих недавних взаимодействий и им не говорили, что они являются частью группы. При этом многие группы могли спонтанно прийти к консенсусу по поводу "имени" без какой-либо центральной координации или предопределенного решения. Это напоминает давний способ формирования норм в человеческих культурах.

Важно
"Удивляются и тревожатся": создатели ИИ признали, что сами не понимают, как он "думает"

Более того, исследователи заметили коллективные предубеждения, которые нельзя было отследить до отдельных агентов. Команда была удивлена тем, что они возникают между агентами — просто из их взаимодействий.

"Понимание того, как они работают, является ключом к руководству нашим сосуществованием с ИИ, а не к подчинению ему. Мы вступаем в мир, где ИИ не просто говорит — он договаривается, согласовывает и иногда не соглашается по поводу общего поведения, как и мы", — заключил профессор Барончелли.

Напомним, исследователи из Токийского университета выявили сходство чат-ботов на основе ИИ с людьми, страдающими афазией.

В свою очередь ученые из Оксфордского университета и Института искусственного интеллекта Аллена выяснили, что LLM распознают незнакомые слова способом, очень похожим на человеческий.