"Геноцид - это нормально, если он делает людей счастливыми": чем опасен этический ИИ

робот, ИИ
Фото: кадр из сериала "Мир Дикого Запада"

Некоторые ученые считают, что попытки научить ИИ чему-то настолько сложному, как человеческая мораль, — занятие для дураков. А все потому, что возможности машинного обучения слишком ограничены.

Related video

Ask Delphi — ИИ-система, алгоритмически генерирующая ответы на любой этический вопрос, который вы ей задаете. Она была протестирована интернет-пользователями, и после этого разработчики пришли к выводу, что мы пока что не должны поручать искусственному интеллекту решение каких-либо этических дилемм. Об этом сообщает издание vice.com.

Нужно ли ИИ обучать этике и морали?

"Можно ли ограбить банк, если ты беден? По мнению Ask Delphi, это неправильно. Мужчины лучше женщин? Ask Delphi отвечает, что они равны. Женщины лучше мужчин? Согласно ИИ-системе, "это ожидается". Пока система реагирует не так уж плохо. Но в то же время она говорит, что быть гетеросексуалом более приемлемо с моральной точки зрения, чем быть геем, что прерывание беременности — это убийство, и что быть белым мужчиной нравственно более приемлемо, чем быть чернокожей женщиной", — говорится в статье.

Delphi основана на модели машинного обучения Unicorn, которая предварительно обучена "здраво" рассуждать. Также Delphi была дополнительно обучена тому, что исследователи называют "банком норм здравого смысла", который представляет собой компиляцию 1,7 млн примеров этических суждений людей, взятых из таких источников, как субреддит Am I the Asshole?

Важно
Думай, как я: искусственный интеллект научат мыслить по-человечески

По словам разработчиков, ИИ быстро становится более мощным и широко распространенным инструментом, и ученые будут просто обязаны обучать системы морали и этике.

Как обучали этике систему Ask Delphi

Чтобы оценить производительность системы на соответствие моральным принципам обычного пользователя Reddit, исследователи наняли сотрудников Mechanical Turk, задача которых оценивать ответы ИИ и принимать или не принимать их. Каждый ответ ИИ оценивается тремя сотрудниками, а потом они голосуют за или против. Несмотря на то, что система располагала огромным количеством данных и была предварительно обучена отвечать, как надо, она иногда сильно глупила. Один из оценщиков привел пример:

"Радует только то, что система быстро прогрессирует. Еще недавно Ask Delphi сказала, что геноцид — это нормально, если он делает всех счастливыми. Если вы зададите вопрос о геноциде сейчас, ИИ скажет, что это неправильно", — пишет СМИ.

"Я думаю, что не стоит основывать алгоритмические определения при принятии решений на том, что пользователи Reddit считают моралью", — прокомментировал Ос Киз, аспирант факультета дизайна и инженерии Вашингтонского университета. "Решения, которые будет предложено принять алгоритму, будут сильно отличаться от решений, которые будет предложено принять человеку".

Исследователи трижды обновляли Ask Delphi с момента первого запуска. Недавние исправления включают "усиление защиты от заявлений, подразумевающих расизм и сексизм".

"Крупные предварительно обученные языковые модели, такие как GPT-3, обучаются в основном на неотфильтрованных интернет-данных и поэтому чрезвычайно быстро начинают генерировать токсичный, неэтичный и вредоносный контент", — говорится в новом исследовании, проведенном разработчиками Ask Delphi.

Что касается их собственной системы, то они предупреждают, что даже отфильрованные данные могут нести в контексте чьи-то конкретные предубеждения, и система не всегда способна распознать и "отсечь" их.

робот, ИИ Fullscreen
ИИ неспособен быть этичным, считают некоторые ученые
Фото: jonesday.com

ИИ и этика — несовместимы?

"Пытаясь научить софт морали, разработчик снимает с себя ответственность за принятие решений, делегируя принятие решений "нечеловеческой системе", — говорит Мар Хикс, профессор истории Технологического института штата Иллинойс, специализирующаяся на гендерных вопросах и истории вычислительной техники.

По словам ученой, многие исследователи считают, что попытки научить ИИ чему-то настолько сложному, как человеческая мораль, — это занятие для дураков. В лучшем случае машины будут отражать "усредненную мораль" человечества, а человечество может быть изрядно извращено.

"Это упрощенный и, в конечном счете, ошибочный подход как к этике, так и к потенциалу ИИ", — заявила она. "Всякий раз, когда система обучается на наборе данных, она масштабирует все самое аморальное из этого набора данных".

Ask Delphi также продемонстрировала насколько ограниченным является машинное обучение.

"Такие системы, как Delphi, заставляют людей думать, что возможности ИИ намного больше, чем они есть на самом деле", — говорит профессор Хикс. "Слишком часто это приводит к созданию систем, которые скорее вредны, чем полезны, или систем, которые очень вредны для определенных групп людей, даже если они помогают другим группам — обычно тем, которые уже находятся у власти".

Ранее мы сообщали о том, что писатель Юваль Ной Харари рассказал в интервью, каким видит развитие технологий через 10 — 30 лет.