Разделы
Материалы

"Сможет и убивать, и управлять вашей жизнью": бывший топ-менеджер Google раскрыл главные угрозы ИИ

Фото: ca.finance.yahoo.com

Машины уже сейчас принимают судьбоносные решения, последствия которых не могут ни предсказать, ни объяснить.

Бывший сотрудник компаний Google, Apple и Microsoft Кай-Фу Ли выделил четыре основных угрозы, которые искусственный интеллект представляет для человечества.

Эксперт рассказал о них в интервью Yahoo! Finance.

Cамой главной опасностью Кай-Фу Ли считает "умное" автономное оружие, которое можно научить убивать людей. По словам Ли, такие технологии навсегда изменят войны из-за своей доступности, точности, скорости программирования — будет практически невозможно установить виновников военных преступлений. Уже сейчас любой энтузиаст может создать летающую машину-убийцу, потратив $1 тыс. Он призвал если не запретить оружие с ИИ, то научиться правильно регулировать его оборот.

"Представьте себе дрон, который может находить конкретных людей с помощью системы распознавания лиц или чего-то еще", — отметил эксперт. — "Я думаю, что это меняет будущее терроризма, потому что террористы больше не обязаны будут жертвовать своими жизнями, совершая нападения на мирных граждан. Любая террористическая группа сможет использовать 10 тыс. таких дронов для свершения чего-то столь же ужасного, как геноцид".

По словам Кай-Фу, второй риск заключается в непреднамеренных негативных последствиях, возникающих, когда ИИ сосредотачивается на одной задаче, игнорируя другие. В качестве примера топ-менеджер привел алгоритмы рекомендаций YouTube, которые предлагают видео, способные негативно влиять на мышление пользователей.

Кай-Фу Ли ранее работал в Google, Apple и Microsoft
Фото: Скриншот

Именно эта проблема всплыла в недавнем расследовании The Wall Street Journal — издание обнаружило, что Instagram негативно влияет на то, как девочки-подростки воспринимают свою внешность. Кроме того, молодые люди связывают соцсеть с повышенным уровнем тревожности и возникновением депрессий.

Еще одной угрозой является сбор конфиденциальной информации о людях. С одной стороны, машинные алгоритмы могут наблюдать за активностью пользователя в Сети, становиться умнее и лучше выполнять свою работу, например, предлагать музыку в соответствии с личными вкусами каждого. С другой стороны, они собирают данные, которые могут помочь скомпрометировать человека.

Решения, принимаемые ИИ, особенно важны в ситуациях, от которых зависит человеческая жизнь. Как правило, машина не может объяснить, почему приняла то или иное решение, но ее программируют так, чтобы она принимала заведомо более выгодные решения, однако и они бывают очень непростыми. Кай-Фу Ли привел такой пример: по рельсам едет пассажирский поезд, и вы видите, что они обрываются. Однако вы можете перевести поезд на другие пути, чтобы спасти пассажиров, но тогда погибнут трое рабочих, которые ремонтируют запасной путь. Можно ли принятое решение свернуть на запасные пути считать "выгодным"?

"Может ли ИИ объяснить нам, почему он принимал те или иные решения, когда речь идет об автоматическом управлении автономными транспортными средствами, или о принятии решений при проведении хирургических операций? Это становится серьезной проблемой", — отметил специалист.

Кай-Фу Ли занимался разработкой искусственного интеллекта на протяжении десятилетий, с тех пор, как он участвовал в создании технологии распознавания речи и автоматизированной речи в качестве докторанта в Университете Карнеги-Меллона. С 2009 года он занимал должность генерального директора Sinovation Ventures с активами более $2,5 млрд.

Ранее Фокус писал, когда сотрется разница между человеком и машиной. По мнению футурологов, через считанные годы произойдет "технологическая сингулярность" — стремительный скачок в развитии технологий, который навсегда изменит существующую цивилизацию.

Тем временем, в США суд запретил признавать искусственный интеллект автором изобретений в патентной документации. Поводом для спора стала "творческая машина" DABUS, которая разработала контейнер для напитков и устройство для привлечения внимания.