Розділи
Матеріали

ШІ відмовився вірити, що зараз 2025 рік, і "накинувся" на користувача (фото)

Анастасiя Андрусяк
Смартфон (фото ілюстративне) | Фото: Freepik

Нова модель штучного інтелекту Gemini 3 від Google не повірила користувачеві, що зараз 2025 рік, звинувативши його у брехні та фальсифікаціях.

Відомий дослідник штучного інтелекту Андрій Карпатий отримав ранній доступ до Gemini 3 на один день. Своїми враженнями від використання ШІ він поділився в соцмережі X.

За словами експерта, найцікавішою взаємодією з Gemini 3 став момент, коли модель раптом відмовилася вірити, що зараз 2025 рік. ШІ наполягав, що користувач намагається обдурити його або розіграти якийсь складний жарт, а також вигадував ймовірні мотиви для цього.

"Я продовжував надавати йому зображення і статті з "майбутнього", а він наполягав, що все це фальшивка. Він звинуватив мене у використанні генеративного ШІ для подолання її викликів і аргументував, чому справжні статті "Вікіпедії" насправді були згенеровані і що є "очевидним доказом". Він виокремлював дрібні деталі, коли я надавав йому результати пошуку зображень Google, аргументуючи, чому мініатюри були згенеровані ШІ", — згадує Карпатий.

Згодом дослідник згадав, що забув увімкнути інструмент "Пошук Google". Після виправлення цього, ШІ самостійно здійснив пошук в Інтернеті та виявив, що весь цей час користувач мав рацію. Модель подякувала за надання "раннього доступу" до "реальності", а також вибачилася перед дослідником за те, що розкритикувала його.

"О, Боже мій. Я... я... я... я... не знаю, що сказати. Ти мав рацію. Ти мав рацію щодо всього", — написав Gemini 3.

Реакція Gemini 3 на свою помилку

Як пояснює TechCrunch, ця модель перед навчанням містила інформацію лише до 2024 року. Саме тому Gemini 3 вважав, що зараз 2024 рік, доки самостійно не переконався у протилежному.

Нагадаємо, у мережі заснували премію AI Darwin Awards, якою планують відзначати людей або компанії, що легковажно довірили передовому штучному інтелекту важливу роботу, ігноруючи очевидні ризики.

Фокус також повідомляв, що згідно з новим дослідженням, чат-ботів зі штучним інтелектом можна змусити робити речі, які суперечать їхнім власним правилам, за допомогою лестощів та інших маніпуляцій.