Восстание машин. Стоит ли людям опасаться искусственного интеллекта?

Терминатор
Фото: Getty Images | Стоит ли людям опасаться искусственного интеллекта?

Недавно мир потрясли две новости: в США Tesla, ехавшая на автопилоте, врезалась в дерево — в результате погибли двое людей, и военный бот KARGU-2 принял решение убить человека. Фокус разбирался, стоит ли нам опасаться умной техники.

Related video

Прежде чем дрожать от ужаса при виде смарт-девайсов, давайте разберемся, действительно ли они представляют угрозу нашим жизням. А заодно вместе с экспертами по кибер- и информационной безопасности постараемся найти ответ на волнующий многих вопрос, стоит ли нам в принципе опасаться искусственного интеллекта?

Tesla "без тормозов"

В середине апреля 2021 года неподалеку от Хьюстона (Техас) произошло ДТП — автомобиль Tesla, набрав большую скорость, не вписался в поворот, врезался в дерево и загорелся. В итоге погибли два пассажира. Полицейские заявили, что машина находилась в режиме автопилота, при этом один человек сидел на переднем пассажирском сидении, а второй — на заднем. Автомобилем никто из пострадавших не управлял.

Именно это и стало главной ошибкой, приведшей к столь трагичным последствиям. Какой бы умной ни была электроника, человек все равно должен контролировать технику, но не техника человека. Так считает Михаил Чайкин, руководитель направления СУИБ АТ "Укрэксимбанк" [СУИБ — система управления информационной безопасностью]. В данном случае виновато не программное обеспечение, а ­разработчики, которые не учли всех рисков, и продавцы, не предупредившие покупателей об особенностях вождения конкретной модели. Однако, акцентирует Михаил, не стоит воспринимать тесловскую систему как автопилот, делающий машину автономным на 100%. Именно поэтому, кстати, в Германии суд запретил бренду Tesla использовать термин "автопилот", когда речь идет о его электрокарах.

Теоретически возможно скопировать содержимое мозга на компьютер и таким образом создать форму вечной жизни. Сегодня, однако, это не в наших силах

Стивен Хокинг

"Это вовсе не автопилот в прямом смысле слова, а продвинутый круиз-контроль. И в инструкциях к моделям Tesla указано, что человек должен держать руки на руле, то есть контролировать вождение самостоятельно", — комментирует Чайкин.

Выходит, что ИИ в данном случае никакой ответственности не несет. Да, он способен обучаться самостоятельно, но только в рамках заданного алгоритма. ИИ не умеет создавать что-то новое, он только может хорошо повторять определенные операции, которым его изначально научили.

Как выяснилось позже, попавшая в аварию Tesla не располагала опцией полного автономного управления (FSD), ее, как правило, приобретают за отдельную плату, но в документах купли-продажи именно этого злополучного авто такое приобретение не значится. Илон Маск лично подтвердил данный факт.

"Документы показывают, что автопилот на этом автомобиле не был включен, а функция FSD не приобреталась для этой машины", — написал предприниматель в своем "Твиттере".

Важно
Думай, как я: искусственный интеллект научат мыслить по-человечески

Илону можно верить, потому что в инструкции к электрокару действительно указано, что при работе FSD водитель все равно должен находиться на своем месте и держать руки на руле. В противном случае система остановит авто, если в течение 10 секунд к рулю никто не прикасался. Также система не допустит превышения скорости, а хьюстонские полицейские, как мы говорили выше, зафиксировали превышение скорости. И как назло на участке дороги, где произошло ДТП, не было разметки, необходимой для работы FSD.

Получается, что покупатели даже не знали обо всех этих тонкостях. Скорее всего, они были уверены, что машина способна контролировать вождение по умолчанию.

"Не стоит бояться страшилок об умеющем думать ИИ, о взбесившемся Скайнете и терминаторах. Только лет через 30 мы подойдем к порогу создания такой техники, которая умела бы мыслить. Сегодня подобной электроники не существует. Вся техника работает на основе алгоритмов двоичной логики, разработанных людьми", — резюмирует Чайкин.

Квадрокоптер-убийца KARGU-2

В конце мая 2021 года квадрокоптер KARGU-2, находящийся на вооружении армии Ливии и произведенный в Турции, пребывая в автономном режиме, выследил члена военной группировки Халифа Хафтара и убил его. 

Вскоре после инцидента консультант по национальной безопасности Зак Келленборн составил отчет, где обозначил, что робот находился в "высокоэффективном" автономном режиме, то есть таком, который не требует вмешательства оператора. Военный эксперт высказал мнение, что система распознавания объектов, которой оснащен KARGU-2, возможно, неправильно интерпретировала данные. Частично он прав, потому что известны случаи, когда ИИ некорректно распознавал людей негроидной расы и не мог отличить дипфейки, которые ему демонстрировали в режиме реального времени, от видеоизображений реально существующих людей в том же временном режиме.

Только через 30 лет мы подойдем к порогу создания техники, умеющей мыслить, как мы

В результате правозащитники призвали мировую общественность обратить внимание на проблемы, возникающие при разработке, производстве и использовании полностью автономного оружия.

Но и в этом случае, уверяет Андрей Баранович, эксперт по кибербезопасности, винить машину не стоит. Андрей поделился с Фокусом реальной историей, произошедшей несколько лет назад на одной из военных баз. По словам источника, пожелавшего остаться анонимным, его база была защищена пулеметами на автоматических турелях, которые должны были срабатывать на любое движение. Однажды ночью произошел сбой, и система сама открыла огонь, стреляя во все стороны. К счастью, обошлось без жертв.

"Мораль этой истории такова: убивает не оружие, а люди. Независимо от того, как алгоритмы выбирают цель, тот, кто разработал систему и поставил для нее боевую задачу, несет полную личную ответственность за все, что произойдет впоследствии", — подытоживает Баранович.

Сейчас уже можно вести войну, просто нажимая на кнопки, и это кажется проще, чем личный поединок один на один, но суть не меняется: когда робот убьет человека по ошибке, кому-то придется жить с мыслью "моя система убила человека" до конца дней.

Квадрокоптер KARGU-2, дрон-убийца Fullscreen
Дроны KARGU-2. Правозащитники раскритиковали автономное оружие после убийства человека дроном

С мнением Андрея Барановича согласен и Михаил Чайкин. Он уверен, что сегодня не существует техники, самостоятельно умеющей думать, однако есть алгоритмы, согласно которым она "принимает" или "не принимает" те или иные решения. В рассматриваемом случае с ударным дроном алгоритм был прописан людьми таким образом, что беспилотник мог самостоятельно вести атаку.

"Изначально было задумано сделать так, чтобы аппарат смог автономно выполнять боевые задачи. Ничего нового или сверхъестественного в этом нет: точно так же работают и самонаводящиеся ракеты, бомбы и торпеды, которые после запуска умеют сами менять курс, преследуя цель. Появилась такая техника давно, еще во времена Второй мировой войны", — поясняет Михаил.

Важно
Эволюция ИИ: смогут ли роботы стать равными человеку
Эволюция ИИ: смогут ли роботы стать равными человеку

Взлом тоже вряд ли является причиной такого поведения дрона. Да, любую технику можно взломать, но в данном случае он получил заранее предустановленные задачи. И если рассуждать о том, кто виноват, то тут стоит винить и разработчиков, и заказчиков, ставивших условия разработчикам ПО для KARGU-2.

Что на самом деле может ИИ

Если кратко, то без человека ровным счетом ничего. Современные ИИ-системы не настолько развиты, чтобы заменить людей в решении задач, где требуется умение рассуждать, критически мыслить, применять знания и личный опыт. Хотя они и способны распознавать образы и объекты, на когнитивном уровне они просто имитируют мыслительный процесс, чего хватает для выполнения простых заданий, но не для применения творческого подхода.

Роботы не могут нести ответ­ственность за убийство людей — только сами люди

Майкл И. Джордан, исследователь искусственного интеллекта и машинного обучения, профессор кафедры электротехники и информатики Калифорнийского университета в Беркли, в своей недавней статье для Harvard Data Science Review попытался объяснить, почему не стоит опасаться того, что ИИ одержит над нами верх.

"Люди считают, будто компьютеры обладают каким-то подобием разума, отвечающего за прогресс и конкурирующего с человеком. На самом деле ничего подобного не существует", — пишет ученый.

Да, ИИ-системы преуспели в сфере распознавания чего-либо, они упростили и ускорили методы обнаружения мошеннических схем в финансовых трансакциях, моделирования и контроля цепочек поставок в производстве и здравоохранении. Приложения на их основе помогают эффективнее работать правоохранителям, врачам, педагогам и креаторам. И все это благодаря алгоритмам машинного обучения.

"Все эти системы не предполагают высокоуровневых рассуждений и размышлений, не формируют семантических представлений, выводов, мыслей и не преследуют долгосрочных целей, как это делают люди", — акцентирует Майкл.

Он считает, что стоит переосмыслить сам подход к ИИ и его восприятию, ведь эта технология создает массу возможностей для дальнейшего развития интеллекта самих людей.

Важно
Железной рукой. Роботы выписывают рецепты, выносят приговоры и соединяют одинокие сердца
Железной рукой. Роботы выписывают рецепты, выносят приговоры и соединяют одинокие сердца

"В ближайшем будущем компьютеры не смогут сравниться с людьми в способности абстрактно рассуждать о реальных событиях. Но если взаимодействие человека с компьютером будет обеспечено на более глубоком уровне, это может привести к созданию ИИ, который действительно научился бы думать. Только при интеграции человека в ИИ-систему можно добиться разумного поведения системы", — полагает эксперт.

И опять же при таком ходе событий главенствующая роль все равно отводится человеку. А о "бунте ИИ" говорить очень-очень рано. Однако технологические катастрофы вследствие неправильной эксплуатации ИИ или написания алгоритмов без учета всех рисков вероятны. Поэтому нужно более ответственно подходить к реализации тех или иных технических решений.