Она имитирует мозг: ученые обучили нейросеть думать "по-человечески"
Нейронные сети могут обучаться "систематической композиционности", ключевой особенности человеческого мышления. Эксперимент показал, что обученная модель с метаобучением по композиционному принципу способна достигать лучших результатов, чем люди и другие модели.
Нейронные сети теперь могут "думать" как человек. Это в ходе экспериментальных исследований выявили и подтвердили доцент Нью-Йоркского университета Бренден Лейк и сотрудник Университета Помпеу Фабра (Испания) Марко Барони, сообщает медиа Live Science.
Ученые продемонстрировали, что система искусственного интеллекта, называемая нейронной сетью, может быть обучена "систематической композиционности", которая является ключевой составляющей человеческого интеллекта. С 1980-х годов часть ученых-когнитологов утверждала, что нейронные сети, являющиеся разновидностью искусственного интеллекта (ИИ), не являются жизнеспособными моделями разума, поскольку их архитектура не отражает ключевую особенность человеческого мышления. Однако в результате обучения нейронные сети смогли обрести эту человекоподобную способность, как показали Лейк и Барони в своем исследовании.
"Наша работа предполагает, что этот важнейший аспект человеческого интеллекта может быть приобретен путем тренировки с использованием модели, которая ранее считалась недостаточно эффективной", — сказал Бренден Лейк.
Он объяснил, что нейронные сети в некоторой степени имитируют структуру человеческого мозга, поскольку их узлы обработки информации связаны друг с другом, а обработка данных происходит в иерархических слоях. Однако исторически сложилось так, что системы ИИ не вели себя подобно человеческому разуму, поскольку им не хватало способности комбинировать известные понятия новыми способами — способность, называемая "систематической композиционностью". По словам ученого, если стандартная нейронная сеть заучивает слова "прыжок", "дважды" и "по кругу", то ей необходимо показать множество примеров того, как эти слова можно объединить в осмысленные фразы, такие как "прыжок дважды" и "прыжок по кругу". Если же системе будет предложено новое слово, например, "вращаться", то ей снова придется увидеть множество примеров, чтобы научиться использовать его аналогичным образом.
ВажноДля чистоты своего эксперимента Лейк и Барони протестировали как модели ИИ, так и людей-добровольцев, используя выдуманный язык со словами "dax" и "wif". Этим словам соответствовали либо цветные точки, либо функция, которая каким-то образом манипулировала порядком расположения этих точек в последовательности. Таким образом, последовательность слов определяла порядок появления цветных точек. Таким образом, получив бессмысленную фразу, ИИ и человек должны были выяснить основные "правила грамматики", определяющие, какие точки соответствуют словам.
Эксперимент показал, что испытуемые примерно в 80% случаев правильно определяли последовательность точек. В случае неудачи они допускали последовательные ошибки, например, думали, что слово представляет собой одну точку, а не функцию, которая перемешивает всю последовательность точек.
После тестирования семи моделей ИИ Лейк и Барони остановились на методе, названном метаобучением по композиционному принципу (MLC), который позволяет нейронной сети практиковаться в применении различных наборов правил к вновь выученным словам, одновременно давая обратную связь о том, правильно ли она применяет эти правила. Нейронная сеть, обученная с помощью MLC, по результатам этих тестов соответствовала или превосходила показатели человека. А когда исследователи добавили данные о типичных ошибках людей, модель искусственного интеллекта стала допускать те же ошибки, что и люди.
Авторы также сравнили MLC с двумя моделями на основе нейронных сетей от компании OpenAI, создавшей ChatGPT, и обнаружили, что и MLC, и люди показали гораздо лучшие результаты, чем модели OpenAI, в тесте на определение точек. Кроме того, MLC справился с дополнительными заданиями, которые включали интерпретацию письменных инструкций и смысла предложений.
Однако способность модели к обобщению все же была ограничена. Она могла работать с теми типами предложений, на которых была обучена, но не могла обобщать их на новые типы предложений. Но стоит учесть, что до этого времени ученым не удавалось обучить нейросеть такому типу мышления.
Напомним, в начале мая мы писали о том, что ученые раскрыли тайну ИИ. Исследователи утверждают, что разработчики нейросетей слишком хвастают "саморазвитием" ИИ, но на самом деле просто задают неправильные параметры.
В это же время в СМИ появилась информация, что ИИ "заменит" топменеджеров, но "пощадит" работяг. Согласно исследованию ВЭФ, четверть высококлассных специалистов могут быть заменены искусственным интеллектом.