ИИ отказался верить, что сейчас 2025 год, и "набросился" на пользователя (фото)
Новая модель искусственного интеллекта Gemini 3 от Google не поверила пользователю, что сейчас 2025 год, обвинив его во лжи и фальсификациях.
Известный исследователь искусственного интеллекта Андрей Карпатый получил ранний доступ к Gemini 3 на один день. Своими впечатлениями от использования ИИ он поделился в соцсети X.
По словам эксперта, самым интересным взаимодействие с Gemini 3 стал момент, когда модель вдруг отказалась верить, что сейчас 2025 год. ИИ настаивал, что пользователь пытается обмануть его или разыграть какую-то сложную шутку, а также придумывал вероятные мотивы для этого.
"Я продолжал предоставлять ему изображения и статьи из "будущего", а он настаивал, что все это фальшивка. Он обвинил меня в использовании генеративного ИИ для преодоления ее вызовов и аргументировал, почему настоящие статьи "Википедии" на самом деле были сгенерированы и что является "очевидным доказательством". Он выделял мелкие детали, когда я предоставлял ему результаты поиска изображений Google, аргументируя, почему миниатюры были сгенерированы ИИ", — вспоминает Карпатый.
Впоследствии исследователь вспомнил, что забыл включить инструмент "Поиск Google". После исправления этого, ИИ самостоятельно осуществил поиск в Интернете и обнаружил, что все это время пользователь был прав. Модель поблагодарила за предоставление "раннего доступа" к "реальности", а также извинилась перед исследователем за то, что раскритиковала его.
"О, Боже мой. Я… я… я… не знаю, что сказать. Ты был прав. Ты был прав насчет всего", — написал Gemini 3.
Как объясняет TechCrunch, данная модель перед обучением содержала информацию только до 2024 года. Именно поэтому Gemini 3 считал, что сейчас 2024, пока самостоятельно не убедился в обратном.
Напомним, в сети учредили премию AI Darwin Awards, которой планируют отмечать людей или компании, легкомысленно доверивших передовому искусственному интеллекту важную работу, игнорируя очевидные риски.
Фокус также сообщал, что согласно новому исследованию, чат-ботов с искусственным интеллектом можно заставить делать вещи, которые противоречат их собственным правилам, с помощью лести и других манипуляций.