Спасет или убьет? Ученый развенчал три самых популярных мифа об искусственном интеллекте
Для того, чтобы уничтожить человечество, AI не обязательно иметь "тело" в виде роботов или быть злым. Директор Института будущего человечества поясняет, чем на самом деле опасна нейросеть.
Искусственный интеллект применяется во многих сферах — от голосовых помощников и до беспилотных автомобилей, от поисковых алгоритмов Google и до автономного оружия. В фантастических фильмах его изображают как всемогущих роботов или сущностей, обладающих сверхчеловеческими способностями. На самом деле, современные нейросети в научном сообществе принято классифицировать как "слабые", поскольку предназначены они для выполнения узкого пула задач (например, только для распознавание лиц или только для поиска в Интернете, или только для вождение автомобиля). Однако многие ученые ставят цель создать "сильный" ИИ. Стоит ли нам уже сегодня опасаться таких технологий?
На этот вопрос в своей колонке отвечает президент Института будущего человечества (FLI) Макс Тегмарк.
На что будет способен суперинтеллект
Что произойдет, если поиски сильного ИИ увенчаются успехом и система станет лучше людей в плане выполнения всех когнитивных задач? Потенциально суперсистема сможет до бесконечности самосовершенствоваться, оставив человеческий интеллект далеко позади. Изобретая революционные новые технологии, такой суперинтеллект может помочь нам искоренить войны, болезни и бедность, и поэтому создание сильного ИИ может стать крупнейшим событием в истории человечества. Однако некоторые эксперты обеспокоены тем, что это может привести к краху, если мы не научимся согласовывать цели ИИ с нашими, прежде чем он станет сверхразумным.
"Во FLI мы признаем обе эти возможности, но также осознаем, что система искусственного интеллекта намеренно или непреднамеренно может причинить большой вред. Мы считаем, что сегодняшние исследования помогут нам лучше подготовиться к таким потенциально негативным последствиям в будущем и предотвратить их.
Большинство исследователей согласны с тем, что сверхразумный ИИ вряд ли будет проявлять человеческие эмоции, такие как любовь или ненависть, и что нет никаких оснований ожидать, что нейросеть станет намеренно доброжелательной или злобной", — пишет ученый.
Эксперты полагают, что наиболее вероятны два сценария.
ИИ запрограммирован на разрушение
Автономное оружие — это AI-системы, которые запрограммированы на убийство. Попадание этого оружия в руки не того человека может привести к массовым жертвам. Более того, гонка "умных" вооружений может непреднамеренно привести к войне. Риск в том, что смарт-оружие могло бы быть спроектировано таким образом, чтобы его было чрезвычайно трудно просто "выключить". В таком случае люди потеряют контроль над ситуацией. Этот риск присутствует даже сегодня и увеличивается по мере повышения уровня интеллекта и автономности нейросетей.
ИИ запрограммирован на полезные дела
В таком случае очень важно уметь полностью согласовывать цели ИИ с нашими, что весьма сложно. Например, если вы попросите послушную "умную" машину доставить вас в аэропорт как можно быстрее, она разогнаться до такой степени, что вас, как минимум укачает, — со всеми вытекающими последствиями. То есть, она сделает не то, что вы хотели, а буквально то, о чем вы просили.
Как показывают эти примеры, продвинутый ИИ вовсе не злой, а просто слишком компетентный. "Сверхразумный ИИ будет чрезвычайно хорош в достижении своих целей, и если эти цели не совпадают с нашими, у нас возникнут проблемы", — заключает Тегмарк.
Мифы об искусственном интеллекте
Илон Маск, Стив Возняк, Билл Гейтс и многие другие авторитетные личности в области науки и технологий все чаще говорят о рисках, связанных с ИИ. На фоне этих публикаций появилось множество мифов о возможностях нейросетей. А недавнее исследование показало, что около 3 млн американцев попросту боятся ИИ. Но стоит ли?
В XXI веке ИИ превзойдет/не превзойдет человеческий интеллект
Это весьма распространенное заблуждение. "Где те термоядерные электростанции и летающие машины, которые нам обещали фантасты к настоящему времени?", — иронизирует автор. Он считает, что возможности AI сильно преувеличены. И, как говорилось выше, нейросети пока могут быть заточены на одну узкую задачу — не более.
С другой стороны, популярный контр-миф заключается в том, что мы точно знаем: в этом столетии мы не получим сверхчеловеческий разум.
"Конечно, не можем с большой уверенностью утверждать, что вероятность равна нулю. Некоторые исследователи считают, что сверхчеловеческий ИИ никогда не появится, потому что это физически невозможно", — рассуждает Макс. "Был проведен ряд опросов, в которых исследователей спрашивали, через сколько лет, по их мнению, у нас будет AI человеческого уровня с вероятностью не менее 50%. Выводы всех этих опросов один: ведущие мировые эксперты не смогли ответить на этот вопрос, потому что ответа они попросту не знают. Например, на конференции, проходившей в Пуэрто-Рико в 2015 году, некоторые ученые сошлись во мнении, что "средний" ИИ появится к 2045 году, а некоторые исследователи предполагали, что это будет через сотни лет или больше".
Проблема сверхразумных машин волнует только ламеров
Принято считать, что развития нейросетей боятся только те люди, которые об этих самых сетях мало что знают. Но это далеко не так. Сегодня в мире проводится множество исследований, посвященных вопросам безопасности систем, работающих на алгоритмах машинного обучения. Возможно, исследований не так уж и много, как хотелось бы, но не стоит забывать, что это — дорогое удовольствие.
"Возможно, СМИ сделали обсуждение безопасности ИИ более противоречивым, чем оно есть на самом деле. В конце концов, страх продается, а статьи, в которых используются цитаты вне контекста, провозглашающие неминуемую гибель человечества, могут генерировать больше трафика, чем вдумчивые обзорные материалы", — резюмирует автор.
Искусственный интеллект будет обладать сознанием, и он обязательно будет злым
Ежедневно медиа публикуют материалы о злобном Скайнете и терминаторах, которые обязательно будут настроены против людей. Почему-то принято считать, что ИИ, как только поумнеет, то обязательно обозлится на человечество.
"Когда вы едете в авто и рассматриваете все вокруг, то восприятие цветов, звуков, запахов субъективно. Но есть ли у беспилотного автомобиля субъективный опыт? Каково это вообще быть беспилотным автомобилем? Хотя эта загадка сознания интересна сама по себе, она не имеет отношения к риску, что ИИ начнет осознавать себя и все вокруг. Если кого-то сбивает беспилотный автомобиль, что он "ощущает" в этот момент? И ощущает ли? На людей повлияет то, что делает сверхразумный ИИ, а не его субъективные ощущения", — приводит пример ученый.
Еще один миф — машины обязательно станут злыми. "Настоящее беспокойство вызывает не злоба, а сверхкомпетентность. Сверхразумная система по определению очень хороша в достижении своих целей, какими бы они ни были, поэтому нам нужно убедиться, что ее цели совпадают с нашими. Обычно люди не ненавидят муравьев, но мы умнее их — поэтому, если мы хотим построить плотину гидроэлектростанции там, где есть муравейник, для муравьев это очень плохо, но для нас — нет. Не стоит думать, что искусственный интеллект хочет поставить человечество в положение этих муравьев", — поясняет автор.
Этот миф возник вследствие заблуждения, что у машин не может быть целей. "Очевидно, что машины могут иметь цели в узком смысле, т.е. они могут демонстрировать целенаправленность поведения. Это видно на примере самонаводящихся ракет. Если вы чувствуете угрозу со стороны машины, цели которой не совпадают с вашими, то именно ее цели в этом узком смысле беспокоят вас, а не то, осознает ли машина, что она делает, и чувствует ли она, что достигла/не достигла цели. Если бы за вами гналась самонаводящаяся ракета, вы, вероятно, не подумали бы: "Я не волнуюсь, потому что у машин не может быть целей!", — пишет Макс Тегмарк.
Также ученый отмечает, "чтобы доставить нам проблемы, сверхчеловеческому разуму не требуется никакого "тела" в виде робота, а только подключение к Интернету — это позволит манипулировать финансами, инфраструктурами, мировыми лидерами и даст возможность разработать оружие, которое мы даже не сможем понять и, следовательно, оценить его опасность".
Миф о том, что ИИ обязательно нужна оболочка, связан с тем, что мы склонны сравнивать его с собой — раз у нас есть тело, то и у него должно быть. "Люди управляют тиграми не потому, что сильнее их, а потому, что умнее. Это означает, что если мы уступим позицию самых умных на нашей планете, возможно, мы также уступим контроль", — подытоживает автор.
Рекомендуем наш материал о том, почему нейросети уже сегодня являются конкурентами для людей, особенно на рынке труда.