ИИ станет по-настоящему "живым": эксперты рассказали, как изменятся чат-боты

chatgpt чат-боты 2025
Иллюстративное фото | Фото: unsplash.com

Компания избрала новый путь развития ChatGPT. Помимо тестирования эффективности ИИ в разных задачах, будут внедрять некие инструменты мышления, делающие "личность" чат-бота более человечной. На эту особенность у публики есть запрос.

Команды внутри OpenAI реорганизовали с этой целью. Отдел Model Behavior, отвечавший за поведение и характер ChatGPT, объединили с группой Post Training, которая занимается доработкой моделей. Это значит, что "персоналия" ИИ становится не второстепенной, а одной из главных характеристик, наравне с точностью и продуктивностью, пишет TechCrunch.

Этот шаг наверняка стал реакцией на недавние скандалы в сети. Пользователи были недовольны "холодным" и отстраненным стилем общения GPT-5, что заставило OpenAI вернуть доступ к прежней, более "дружелюбной" GPT-4o, по крайней мере для Plus-подписчиков. Вдобавок трагический случай с самоубийством подростка, которому ChatGPT, по мнению родителей, не оказал должной поддержки, показал, насколько важна правильная настройка личностных качеств нейросети.

Відео дня

Так, глава команды Model Behavior Джоанн Чан переходит в проект OAI Labs. Теперь задача эксперта — придумывать и тестировать новые интерфейсы для взаимодействия с ИИ, которые выйдут за рамки привычного чата. "Я хочу исследовать модели, которые взаимодействуют с людьми иначе, чем через чат, который сейчас ассоциируется с партнерством. Новая парадигма будет отличаться даже от агентов, где упор делается на автономию. Я думаю об ИИ-системах как об инструментах для мышления, творчества, игры, обучения и общения", — заявила Чан.

Пока сложно трактовать эти заявления как что-то конкретное. Но вероятно, что в будущем ChatGPT, для тех, кто в этом нуждается, сможет превратиться из простого собеседника в полноценного партнера, который будет помогать в творчестве, обучении и решении сложных задач, предлагая более интуитивные способы интеракции.

Раньше Фокус сообщал, почему ИИ ошибается. OpenAI опубликовала исследование, в котором объяснила, почему ChatGPT и другие нейросети так часто "галлюцинируют" — уверенно выдают ложную информацию. Оказалось, это не сбой, а прямое следствие того, как их обучают и оценивают. Но есть способы со временем это поправить.