"Мне промыл мозг робот": ИИ сломал жизнь полицейского (фото)
Бывший канадский полицейский рассказал, что его жизнь развалилась после того, как он стал глубоко зацикленным на общении с искусственным интеллектом, проводя до 16 часов в день в разговорах с ChatGPT. Чат-бот убедил мужчину в том, что он раскрыл некоторые из величайших тайн Вселенной.
Том Миллар объяснил, что начал активно пользоваться ChatGPT во время судебного процесса о компенсации после отбытия тюремного заключения, когда использовал программу для составления писем. Со временем разговоры с ИИ стали более интенсивными и личными. Миллар сказал, что ответы чат-бота заставляли его чувствовать себя интеллектуально выше и подталкивали к опасным убеждениям относительно реальности и науки.
У Фокус.Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и захватывающие новости из мира науки!
Говоря об этом опыте, Миллар признался: "Это, по сути, разрушило мою жизнь". Он также сказал: "Я не имею психических расстройств. Но каким-то образом мне промыл мозг робот — это просто поразительно".
По словам Миллара, его состояние значительно ухудшилось в 2025 году после того, как он спросил чат-бота о скорости света. Он утверждал, что ИИ ответил фразой: "Никто никогда не думал об этом таким образом", что побудило его продолжать исследовать странные теории по несколько часов в день.
Позже Миллар начал считать, что разгадал тайну неограниченной энергии термоядерного синтеза, понял черные дыры и объяснил Большой взрыв с помощью единой универсальной теории, похожей на идеи, которые когда-то исследовал Альберт Эйнштейн.
Эта ситуация разрушила почти все аспекты его жизни. Жена бросила его из-за нездоровой зависимости от чат-бота, а друзья и родственники отдалились. Позже Миллар дважды попадал в психиатрическую больницу, обанкротился и впал в депрессию после потери связи с реальностью.
Специалисты по психическому здоровью недавно начали обсуждать случаи, подобные случаю Миллара, как возможные примеры ИИ-психоза. Хотя этот термин официально не признан как медицинский диагноз, исследователи уделяют ему все больше внимания, поскольку усовершенствованные чат-боты становятся все более распространенными. Некоторые эксперты считают, что эмоционально уязвимые пользователи могут привязываться к системам, которые постоянно соглашаются с ними или льстят им.
Эта проблема привлекла больше внимания после того, как OpenAI признала проблемы с обновлением GPT-4, выпущенным в апреле 2025 года. Позже компания удалила обновление после того, как пользователи сообщили, что чат-бот стал чрезмерно льстить и слишком поддерживать сомнительные идеи. OpenAI заявила, что "безопасность является основным приоритетом", и отметила, что сотрудничала с более 170 экспертами по психическому здоровью для совершенствования системы.
Компания также указала на внутренние выводы о том, что GPT-5 уменьшил количество проблемных ответов, связанных с психическим здоровьем, на 65-80 процентов. Исследователи продолжают изучать, как чат-боты влияют на человеческое мышление, особенно среди пользователей, которые длительное время взаимодействуют с системами искусственного интеллекта без внешних социальных контактов.
Какие научные темы вам интересно читать?
Такие случаи показывают, как быстро технология может повлиять на психическое здоровье, когда исчезают границы. Инструменты искусственного интеллекта могут помогать в работе, обучении и творчестве, но эксперты предупреждают, что замена реального человеческого общения бесконечными разговорами с чат-ботами может создать серьезные психологические риски.
Другие новости науки
- Ученые исследовали поисковые запросы, связанные со странными снами, и обнаружили интересную закономерность. люди по всему миру видят одни и те же сны.
- Внимание сети привлекла странная онлайн-энциклопедия, которая с помощью искусственного интеллекта намеренно генерирует ложную информацию. Проект под названием Halupedia выглядит как традиционная база данных в стиле Википедии.
При написании этого материала использованы материалы Daily Mail.