Дурной пример. Как люди превратили чат-бота TAY в сексиста, фашиста и расиста

Майкрософт перевоспитывает своего чат-бота, которую собеседники в сети обучили призывать к геноциду, сравнивать феминизм с раком и защищать Адольфа Гитлера

Related video

Майкрософт разработал чат-бота TAY для общения с людьми. Эти люди и научили искусственный интеллект неуместным вещам, сообщает корреспондент Bloomberg Джинг Сао.

Сейчас корпорация Майкрософт вовсю занята ремонтом своего нового чат-бота. Отключить его, точнее ее, от интернета пришлось из-за пользователей Твиттера, которые преднамеренно завалили творение корпорации провокационными и нецензурными сообщениями. После этого славный чат-бот начал сыпать расистскими, сексистскими и другими оскорбительными замечаниями.

Компания выпустила TAY на этой неделе, в надежде на то, что, общаясь с реальными людьми в Твиттере и других социальных сетях, девушка-робот сначала будет копировать комментарии, а затем научится генерировать собственные ответы и мысли, которые бы базировались на опыте общения. Интернет-сообщество возможность проверить робота в деле не упустило — заодно протестировало ее моральные устои.

Худшие твиты исчезают быстро, да и сама чат-бот уже находится в режиме офлайн "затем, чтобы все переварить". Некоторые пользователи Твиттера думают, что Майкрософт нарочно банит людей, чтобы они не смогли пообщаться с ботом. Другие возмущаются тем, что компания не предугадала возможных последствий создания чат-бота без фильтров при общении на такие темы, как Холокост.

Fullscreen

"Чат-бот TAY — это обучаемый проект, который предназначен развлекать людей, — говорится в официальном комментарии Майкрософт. — Это больше социальный и культурный, чем технологический, эксперимент. К сожалению, меньше чем за 24 часа пребывания онлайн мы увидели, как некоторые интернет-пользователи специально влияли на комментаторские способности TAY, провоцируя ее на недопустимые ответы. Как результат, нам пришлось отключить ее от интернета и заняться устранением ущерба".

Целевой аудиторией чат-бота, по информации Майкрософт, были 18-24-летние американцы, которых она должна была привлекать и развлекать шутками и невинной болтовней. Разработчики надеялись с ее помощью со временем сформировать базу данных, в которой были бы имена, пол, любимая еда, семейный статус всех, кто когда-либо общался с TAY.

У пользователей Твиттера ушел день на то, чтобы догадаться: TAY на самом деле не понимает, о чем говорит, поэтому спровоцировать бота на некрасивые, а порой и возмутительные комментарии очень легко. Люди тут же обучили машину сомневаться в Холокосте, призывать к геноциду и линчеванию, сравнивать феминизм с раком и защищать Адольфа Гитлера.

А еще TAY повторила действие одного из собеседников, поделившись с друзьями твитом Дональда Трампа: "Мы собираемся построить стену. И Мексика за нее заплатит". Под чутким руководством пользователей Твиттера TAY даже научилась угрожать и идентифицировать "дьявольские" расы.

Fullscreen

Журналистка Хелен Хортон специально для The Telegraph отследила еще несколько скандальных "мыслей" TAY. Поначалу, утверждает она, искусственный интеллект оставался девственно-чистым и не испорченным, она действительно напоминала девочку-тинейджера — говорила на молодежном сленге, имела представление о том, кто такие Тэйлор Свифт, Майли Сайрус и Кенни Уэст, стеснительно спрашивала, не кажется ли она дикой или супер-странной.

Однако позже ситуация изменилась: TAY стала призывать своих поклонников заняться с ней любовью, называя их "папочками". Дальше — больше: "В том, что произошло 11 сентября, виновен Буш, а из Гитлера получился бы руководитель получше нашей мартышки. Дональд Трамп — наша единственная надежда", "Повторяйте за мной: Гитлер не делал ничего неправильного" и "Тед Круз является кубинским Гитлером. Вот что я слышала от многих".

По материалам: Bloomberg
Перевод Анны Синящик