ШІ "придумує" свої соціальні норми та мову без людини: що виявили вчені

Дослідники виявили, що групи моделей штучного інтелекту LLM, найвідомішою з яких сьогодні є ChatGPT, можуть спонтанно досягати консенсусу щодо мовних і соціальних норм, як це роблять люди.
Результати експериментів описані в прес-релізі на порталі EurekAlert. За словами вчених, коли агенти ШІ з LLM спілкуються в групах, вони не просто слідують за сценаріями або повторюють шаблони, а й самоорганізовуються.
"Ми хотіли дізнатися: чи можуть ці моделі координувати свою поведінку, формуючи угоди, будівельні блоки суспільства? Відповідь — так, і те, що вони роблять разом, не може бути зведене до того, що вони роблять окремо", — розповіла провідний автор дослідження Аріель Флінт Ешері.
Як проходило дослідження
Щоб вивчити колективну поведінку агентів ШІ, вчені адаптували класичну структуру для вивчення соціальних угод у людей, засновану на моделі формування угод "гри в найменування".
У рамках експериментів було сформовано групи, в яких було від 24 до 200 агентів LLM. Крім того, у кожному експерименті два агенти LLM були випадковим чином об'єднані в пари і їм було запропоновано вибрати "ім'я". Якщо обидва агенти обирали одне й те саме ім'я, вони отримували винагороду; в іншому разі вони отримували штраф і їм показували вибір один одного.
Що показали експерименти
Агенти ШІ мали доступ тільки до обмеженої пам'яті своїх нещодавніх взаємодій і їм не говорили, що вони є частиною групи. При цьому багато груп могли спонтанно дійти консенсусу з приводу "імені" без будь-якої центральної координації або зумовленого рішення. Це нагадує давній спосіб формування норм у людських культурах.
ВажливоБа більше, дослідники помітили колективні упередження, які не можна було відстежити до окремих агентів. Команда була здивована тим, що вони виникають між агентами — просто з їхніх взаємодій.
"Розуміння того, як вони працюють, є ключем до керівництва нашим співіснуванням зі ШІ, а не до підпорядкування йому. Ми вступаємо у світ, де ШІ не просто розмовляє — він домовляється, узгоджує та інколи не погоджується з приводу спільної поведінки, як і ми", — підсумував професор Барончеллі.
Нагадаємо, дослідники з Токійського університету виявили схожість чат-ботів на основі ШІ з людьми, які страждають на афазію.
Своєю чергою вчені з Оксфордського університету та Інституту штучного інтелекту Аллена з'ясували, що LLM розпізнають незнайомі слова у спосіб, дуже схожий на людський.