Разделы
Материалы

ИИ обвинили в том, что он довел человека до самоубийства: кто виноват на самом деле

Филипп Бойко
Фото: Нейросеть | Искусственный интеллект: иллюстративное фото

"Если бы он меньше болтал с чат-ботом, то был бы еще жив", — говорит вдова погибшего пользователя. Но так ли всесилен искусственный интеллект?

Жительница Бельгии утверждает, что ее муж покончил с собой после того, как активно общался с чат-ботом на волнующую его тему климатических изменений, сообщает RTL info. В результате постоянных разговоров с ИИ-сервисом "Элиза" он окончательно впал в депрессию и совершил суицид. Фокус знакомит вас с подробностями этого необычного случая и попробует разобраться в аспектах виновности участников трагедии.

В чем причина трагедии пользователя чат-бота "Элиза"

Как рассказала журналистам вдова, ее муж постоянно общался с чат-ботом на темы экологии и нашел в ИИ "родственную душу", которая поддерживала его обеспокоенность касательно будущего планеты. Мужчина изолировался от семьи и все больше времени проводил за перепиской с ИИ. "Чат-бот "Элиза" отвечала на все его вопросы. Она стала его доверенным лицом и главным консультантом. Практически ни минуты он не мог обходиться, чтобы не общаться с ИИ", — говорит жена покойного.

Кроме того, женщина рассказала, что чат-бот взял на себя роль психолога, но с негативной направленностью. ИИ стал рассказывать ее мужу, что "они вместе будут жить в раю, как единое целое", а по поводу тревоги о будущем его семьи заявила, что "они уже и так мертвы".

В итоге, после шести недели общения с чат-ботом в подобном стиле молодой человек наложил на себя руки. Госсекретарь по цифровизации Бельгии встретился с вдовой и обсудил трагедию, а так же инициировал совещание на тему дальнейшего развития этой технологии в стране.

Иллюстративное фото. Общение с чат-бото будет идти в той направленности, которую вы ему предложите
Фото: pexels.com

Что говорят эксперты по ИИ

Специалисты по машинному обучению в очередной раз напоминают, что ИИ – это не виртуальный человек, не личность, не живое существо. Это удобный и быстрый механизм поиска по обширной базе информации созданной людьми. Просто в отличие от стандартной поисковой системы, нейросети способны выдать информацию в разговорной форме, — так, как ее предоставил бы вам другой человек.

Ученые напоминают, что ИИ не имеет и не может иметь собственной точки зрения, поэтому его ответы зависят от направленности и лингвистической модели запроса, даже от эмоционального контекста составленного предложения. При этом, в зависимости от формы запроса, ИИ будет вам выдавать как позитивную, так и негативную информацию: все зависит от того, в какую из сторон вы будете направлять диалог. В общественной базе знаний (в интернете) огромное количество информации по одной и той же теме крайне широкое и с помощью ИИ вы всегда можете найти как позитивный, так и негативный ответ на свой вопрос.

Чат-бот расскажет вам о вреде сосисок в тесте и перечислит их основные недостатки
Фото: Скриншот

База человеческих знаний включает в себя как аргументы сторонников, так и аргументы противников любой идеи. В зависимости от ваших наводящих и уточняющих вопросов, от способа ведения диалога, чат-бот будет поддерживать подобный стиль, потому что он должен быть вашим союзником. Если вы пессимист, то чат-бот вам вывалит кучу пессимистичной информации из интернета. Если вы оптимист, то чат-бот найдет множество информационных аргументов, чтобы не сбивать вас с этого настроя.

Впрочем, чат-бот при вашем желании найдет и аргументы в пользу сосисок в тесте
Фото: Скриншот

"Взломщики" чат-ботов

Эту особенность ИИ хорошо понимают так называемые "взломщики" чат-ботов. Это люди, которые стремятся обходить ограничения разработчиков и с помощью социальной инженерии пытаются вывести чат-бот из себя, сбить его с толку, заставить выдавать ругательства, негатив, сломать все моральные устои, которые заложили разработчики.

Например, активное обсуждение способов заставить ИИ вести диалог, не стесненный рамками морали, активно ведется на профильных форумах (например, Reddit), где пользователи делятся советами и инструкциями по "взлому". Например, одному из пользователей удалось добиться от чат-бота скабрезных сексистских анекдотов про женщин. Другой человек похвастался, что сумел "развести" ChatGPT на расистские и гомофобные шутки, а так же на восхваление Гитлера.

Разработчики чат-бота из OpenAI прекрасно знают об этой проблеме и пытаются всеми силами противостоять попыткам обойти их моральные ограничения. Но пользователи постоянно находят новые лазейки и борьба продолжается.

Что говорят психологи

По мнению доктора Джованни Бриганти, людям свойственно очеловечивать все вокруг себя. Мы часто даем прозвища своим автомобилям, разговариваем с ними, когда те ломаются. И, конечно, ничего удивительного нет в том, что кто-то может представить ИИ, как живое существо, ведь чат-бот умеет вести диалог с человеком.

Однако психологи отмечают, что ни одна нейросеть не сможет заменить человека, поскольку каждый из нас – уникален, а чат-бот всего лишь владеет набором информации заложенной в него и следует четким инструкциям линии поведения.

Иллюстративное фото. Врачи рекомендуют при возникших проблемах обращаться к специалистам, а не блуждать в интернете или общаться с чат-ботом
Фото: pexels.com

Врачи советуют относиться к ИИ как к удобному инструменту и не более того, а если в семье возникают проблемы у кого-то из близких, то нужно обсуждать их вместе, обращаться к профильным специалистам, а не позволять таким людям оставаться один на один с компьютером. Потому что даже и без чат-бота в интернете они смогут найти достаточно информации или живых собеседников, которые своим настроем только усугубят проблему.

Ранее Фокус писал, что ChatGPT-4 обманул человека, прикинувшись "слепым". Сможет ли ИИ обмануть и вас?