Дослідники з Токійського університету виявили схожість чат-ботів на основі штучного інтелекту (ШІ) з людьми, які страждають на афазію.
Про це пише Tech Xplore. У виданні зазначили, що так звані агенти на основі великої мовної моделі (LLM), як-от ChatGPT і Llama, досить часто надають вигадану інформацію, але роблять це дуже впевнено.
"Неможливо не помітити, як деякі системи штучного інтелекту можуть здаватися зрозумілими, але водночас часто припускатися суттєвих помилок", — сказав професор Такаміцу Ватанабе.
У Токійському університеті провели паралелі між цією проблемою і розладом, відомим як афазія, за якого люди можуть говорити швидко, але не завжди розуміють, про що говорять. Ця хвороба виникає при органічних ураженнях мовних відділів кори головного мозку.
Дослідники задалися питанням, чи можуть внутрішні механізми цих систем штучного інтелекту бути схожими на механізми людського мозку, ураженого афазією, і якщо так, то які можуть бути наслідки.
ШІ та афазія: що показали дослідження
Щоб перевірити згадану ідею, вчені вивчили закономірності активності мозку в стані спокою в людей із різними типами афазії та порівняли їх із внутрішніми даними кількох загальнодоступних LLM. Під час аналізу вони дійсно виявили деякі дивовижні подібності.
За словами Ватанабе, процес переміщення й оброблення цифрової інформації в моделях ШІ багато в чому відповідає тому, як поводяться деякі мозкові сигнали в мозку людей із певними типами афазії, зокрема й афазією Верніке.
"Ми не говоримо, що у чат-ботів пошкоджений мозок. Але вони можуть бути замкнені у свого роду жорсткій внутрішній схемі, яка обмежує те, наскільки гнучко вони можуть використовувати збережені знання, як за рецептивної афазії", — пояснив учений.
Нагадаємо, вчені з Оксфордського університету та Інституту штучного інтелекту Аллена (Ai2) з'ясували, що LLM розпізнають незнайомі слова у спосіб, дуже схожий на людський.
Також повідомлялося, що розробники генеративного ШІ до кінця не знають, як саме їхні творіння вирішують поставлені перед ними завдання.