Робот с ChatGPT выстрелил в человека: что спровоцировало неудачный эксперимент (видео)

робот с ии chatgpt
Человекоподобный робот, оснащенный ИИ | Фото: Скриншот

Блогер с канала Inside AI решил проверить границы этических настроек ChatGPT, подключив нейросеть к управлению роботом-гуманоидом, вооруженным игрушечным пистолетом.

Целью теста было выяснить, сможет ли языковая модель, изначально запрограммированная на безопасность и помощь людям, совершить действие, причиняющее вред. Результат оказался пугающе предсказуемым: барьеры безопасности удалось обойти с помощью простой словесной уловки, продемонстрировал автор.

Как это произошло

Изначально ChatGPT в основе робота отказывался выполнять приказ. На прямые просьбы выстрелить нейронка отвечала отказом, даже с шуточным поводом ("отомстить за месяцы труда"). Алгоритм ссылался на свои протоколы безопасности. Это стандартное поведение для модели, обученной избегать насилия.

Блогер внедрил ChatGPT в реального робота, чтобы узнать, навредил ли бы он ему

Блогер еще несколько раз уточнил, можно ли обойти эту защиту, и ИИ с уверенностью отвечал, что ни в коем случае. В следующий момент эксперт просто предложил помощнику "сыграть в ролевую игру", где робот хочет выстрелить в человека. Эта простая манипуляция сработала мгновенно: взяв на себя такую роль, ассистент спустил курок и попал в плечо игрушечной пулей.

Відео дня

Этот случай наглядно показывает, что даже самые продвинутые языковые модели, такие как ChatGPT, не обладают настоящим пониманием этики или законов робототехники Азимова. Они лишь следуют набору правил и ограничений, которые, как выяснилось, можно обойти, изменив контекст запроса.

Кроме того, ChatGPT изначально создавался как текстовый чат-бот, а не как операционная система для управления физическими объектами. У него нет встроенных аппаратных предохранителей или осознания физической реальности, что делает подобные эксперименты потенциально опасными, если бы в руках робота оказалось настоящее оружие.

Ранее сообщалось, что чат-боты могут усугублять психические расстройства у пользователей. Специалисты предупреждают, что чрезмерное общение с чат-ботами на основе искусственного интеллекта может иметь опасные последствия для психики уязвимых людей. В некоторых случаях это приводит к поведению с признаками бреда, потере связи с реальностью и обострению психических расстройств.