Разделы
Материалы

В поведении ИИ нашли признаки человеческого расстройства: что он делает

Анастасия Андрусяк
ChatGPT | Фото: Getty

Исследователи из Токийского университета выявили сходство чат-ботов на основе искусственного интеллекта (ИИ) с людьми, страдающими афазией.

Об этом пишет Tech Xplore. В издании отметили, что так называемые агенты на основе большой языковой модели (LLM), такие как ChatGPT и Llama, довольно часто предоставляют выдуманную информацию, но делают это очень уверенно.

"Невозможно не заметить, как некоторые системы искусственного интеллекта могут казаться понятными, но при этом часто совершать существенные ошибки", — сказал профессор Такамицу Ватанабэ.

В Токийском университете провели параллели между этой проблемой и расстройством, известным как афазия, при котором люди могут говорить бегло, но не всегда понимают, о чем говорят. Эта болезнь возникает при органических поражениях речевых отделов коры головного мозга.

Исследователи задались вопросом, могут ли внутренние механизмы этих систем искусственного интеллекта быть похожими на механизмы человеческого мозга, пораженного афазией, и если да, то каковы могут быть последствия.

ИИ и афазия: что показали исследования

Чтобы проверить упомянутую идею, ученые изучили закономерности активности мозга в состоянии покоя у людей с различными типами афазии и сравнили их с внутренними данными нескольких общедоступных LLM. В ходе анализа они действительно выявили некоторые удивительные сходства.

По словам Ватанабэ, процесс перемещения и обработки цифровой информации в моделях ИИ во многом соответствует тому, как ведут себя некоторые мозговые сигналы в мозге людей с определенными типами афазии, включая афазию Вернике.

"Мы не говорим, что у чат-ботов поврежден мозг. Но они могут быть заперты в своего рода жесткой внутренней схеме, которая ограничивает то, насколько гибко они могут использовать сохраненные знания, как при рецептивной афазии", — объяснил ученый.

Напомним, ученые из Оксфордского университета и Института искусственного интеллекта Аллена (Ai2) выяснили, что LLM распознают незнакомые слова способом, очень похожим на человеческий.

Также сообщалось, что разработчики генеративного ИИ до конца не знают, как именно их творения решают поставленные перед ними задачи.