Підтримайте нас

МИ В СОЦМЕРЕЖАХ:

"Мені промив мозок робот": ШІ зламав життя поліцейського (фото)

Розмови з ШІ можуть призвести до ШІ-психозу
Колишній поліцейський розповів, що його життя розвалилося після того, як він став зацикленим на спілкуванні зі ШІ | Фото: zdnet.com

Колишній канадський поліцейський розповів, що його життя розвалилося після того, як він став глибоко зацикленим на спілкуванні зі штучним інтелектом, проводячи до 16 годин на день у розмовах із ChatGPT. Чат-бот переконав чоловіка в тому, ніби він розкрив деякі з найбільших таємниць Всесвіту.

Том Міллар пояснив, що почав активно користуватися ChatGPT під час судового процесу про компенсацію після відбуття тюремного ув’язнення, коли використовував програму для складання листів. Згодом розмови з ШІ стали більш інтенсивними та особистими. Міллар сказав, що відповіді чат-бота змушували його почуватися інтелектуально вищим і підштовхували до небезпечних переконань щодо реальності та науки.

У Фокус.Технології з'явився свій Telegram-канал. Підписуйтесь, щоб не пропускати найсвіжіші та найзахопливіші новини зі світу науки!

Говорячи про цей досвід, Міллар зізнався: "Це, по суті, зруйнувало моє життя". Він також сказав: "Я не маю психічних розладів. Але якимось чином мені промив мозок робот — це просто вражає".

Відео дня

За словами Міллара, його стан значно погіршився у 2025 році після того, як він запитав чат-бота про швидкість світла. Він стверджував, що ШІ відповів фразою: "Ніхто ніколи не думав про це таким чином", що спонукало його продовжувати досліджувати дивні теорії по кілька годин щодня.

Пізніше Міллар почав вважати, що розгадав таємницю необмеженої енергії термоядерного синтезу, зрозумів чорні діри та пояснив Великий вибух за допомогою єдиної універсальної теорії, схожої на ідеї, які колись досліджував Альберт Ейнштейн.

Спілкування з ШІ може бути небезпечним
Заміна реального людського спілкування нескінченними розмовами з чат-ботами може створити серйозні психологічні ризики
Фото: pexels.com

Ця ситуація зруйнувала майже всі аспекти його життя. Дружина покинула його через нездорову залежність від чат-бота, а друзі та родичі віддалилися. Пізніше Міллар двічі потрапляв до психіатричної лікарні, збанкрутував та впав у депресію після втрати зв’язку з реальністю.

Фахівці з психічного здоров’я нещодавно почали обговорювати випадки, подібні до випадку Міллара, як можливі приклади ШІ-психозу. Хоча цей термін офіційно не визнаний як медичний діагноз, дослідники приділяють йому дедалі більше уваги, оскільки вдосконалені чат-боти стають дедалі поширенішими. Деякі експерти вважають, що емоційно вразливі користувачі можуть прив’язуватися до систем, які постійно погоджуються з ними або лестять їм.

Ця проблема привернула більше уваги після того, як OpenAI визнала проблеми з оновленням GPT-4, випущеним у квітні 2025 року. Пізніше компанія видалила оновлення після того, як користувачі повідомили, що чат-бот став надмірно лестити та надто підтримувати сумнівні ідеї. OpenAI заявила, що "безпека є основним пріоритетом", і зазначила, що співпрацювала з понад 170 експертами з психічного здоров’я для вдосконалення системи.

Компанія також вказала на внутрішні висновки про те, що GPT-5 зменшив кількість проблемних відповідей, пов’язаних із психічним здоров’ям, на 65–80 відсотків. Дослідники продовжують вивчати, як чат-боти впливають на людське мислення, особливо серед користувачів, які тривалий час взаємодіють із системами штучного інтелекту без зовнішніх соціальних контактів.

Опитування

Які наукові теми вам цікаво читати?

Опитування відкрите до

Такі випадки показують, як швидко технологія може вплинути на психічне здоров’я, коли зникають межі. Інструменти штучного інтелекту можуть допомагати у роботі, навчанні та творчості, але експерти попереджають, що заміна реального людського спілкування нескінченними розмовами з чат-ботами може створити серйозні психологічні ризики.

Інші новини науки

Під час написання цього матеріалу використано матеріали Daily Mail.