ШІ "придумує" свої соціальні норми та мову без людини: що виявили вчені

ШІ, ноутбук
Фото: Freepik | Ноутбук (фото ілюстративне)

Дослідники виявили, що групи моделей штучного інтелекту LLM, найвідомішою з яких сьогодні є ChatGPT, можуть спонтанно досягати консенсусу щодо мовних і соціальних норм, як це роблять люди.

Related video

Результати експериментів описані в прес-релізі на порталі EurekAlert. За словами вчених, коли агенти ШІ з LLM спілкуються в групах, вони не просто слідують за сценаріями або повторюють шаблони, а й самоорганізовуються.

"Ми хотіли дізнатися: чи можуть ці моделі координувати свою поведінку, формуючи угоди, будівельні блоки суспільства? Відповідь — так, і те, що вони роблять разом, не може бути зведене до того, що вони роблять окремо", — розповіла провідний автор дослідження Аріель Флінт Ешері.

Як проходило дослідження

Щоб вивчити колективну поведінку агентів ШІ, вчені адаптували класичну структуру для вивчення соціальних угод у людей, засновану на моделі формування угод "гри в найменування".

У рамках експериментів було сформовано групи, в яких було від 24 до 200 агентів LLM. Крім того, у кожному експерименті два агенти LLM були випадковим чином об'єднані в пари і їм було запропоновано вибрати "ім'я". Якщо обидва агенти обирали одне й те саме ім'я, вони отримували винагороду; в іншому разі вони отримували штраф і їм показували вибір один одного.

Що показали експерименти

Агенти ШІ мали доступ тільки до обмеженої пам'яті своїх нещодавніх взаємодій і їм не говорили, що вони є частиною групи. При цьому багато груп могли спонтанно дійти консенсусу з приводу "імені" без будь-якої центральної координації або зумовленого рішення. Це нагадує давній спосіб формування норм у людських культурах.

Важливо
"Дивуються і тривожаться": творці ШІ визнали, що самі не розуміють, як він "думає"

Ба більше, дослідники помітили колективні упередження, які не можна було відстежити до окремих агентів. Команда була здивована тим, що вони виникають між агентами — просто з їхніх взаємодій.

"Розуміння того, як вони працюють, є ключем до керівництва нашим співіснуванням зі ШІ, а не до підпорядкування йому. Ми вступаємо у світ, де ШІ не просто розмовляє — він домовляється, узгоджує та інколи не погоджується з приводу спільної поведінки, як і ми", — підсумував професор Барончеллі.

Нагадаємо, дослідники з Токійського університету виявили схожість чат-ботів на основі ШІ з людьми, які страждають на афазію.

Своєю чергою вчені з Оксфордського університету та Інституту штучного інтелекту Аллена з'ясували, що LLM розпізнають незнайомі слова у спосіб, дуже схожий на людський.