Разделы
Материалы

На грани нирваны и гибели. Как спасти человечество от искусственного интеллекта

Искусственный интеллект может сработать во вред человеку, предупреждает в колонке для The Wall Street Journal врач Дэвид Шейвиц. Поэтому нужно придумать механизмы, гарантирующие безопасность этих технологий.

Фото: Нейросеть | Искусственный интеллект таит угрозу для человечества, на которую, скорее всего, можно найти управу

В 1837 году кузнец из Гранд-Детура, штат Иллинойс, наткнулся на мельнице на сломанную стальную пилу; он взял лезвие домой — в то время стали было мало — и превратил его в плуг, который идеально подходил для плотной почвы этого региона. Он начал массовое производство этого инструмента, и вскоре имя John Deere стало синонимом сельскохозяйственной продукции. Сегодня компания все чаще производит автономные тракторы и комбайны, беспилотные машины, которые собирают и обрабатывают данные для оптимизации урожайности. "Сельскохозяйственные роботы не просто приходят", — восторгается Мустафа Сулейман. — "Они здесь".

Г-н Сулейман знает кое-что о новых технологиях. В 2010 году вместе с Демисом Хассабисом и Шейном Леггом он основал DeepMind с нескромной целью: "решить проблему интеллекта" — то есть воспроизвести человеческое познание с помощью компьютеров — и "сделать мир лучше". Компания DeepMind, приобретенная Google в 2014 году за разработку типа искусственного интеллекта, называемого глубоким обучением, добилась ряда потрясающих достижений. Одна из ее программ, AlphaFold, смогла предсказать трехмерную структуру белков на основе их аминокислотной последовательности, что стало научным прорывом. Неудивительно, что г-н Сулейман глубоко верит в возможности искусственного интеллекта. Но кое-что в будущем, которое он так хорошо представляет себе после многих часов раздумий и работы над его созданием, повергло его в шок. В книге "The Coming Wave" он надеется и нас расстроить.

Хорошая новость, говорит нам г-н Сулейман, заключается в том, что ИИ – вместе с синтетической биологией, технологией, направленной на создание организмов – готов "открыть новый рассвет для человечества". Он предвидит вселенную благоприятных перспектив. По его словам, ИИ находится на верном пути, чтобы "помогать управлять нашим бизнесом, лечить наши недуги и вести наши битвы". "Кажется, не существует очевидного верхнего предела возможного".

Но он напуган тем, что распространение этих технологий даст возможность "множеству злоумышленников спровоцировать разрушения, нестабильность и даже катастрофу невообразимого масштаба". Его страх вызван убеждением, что технологии имеют тенденцию становиться "дешевле и проще в использовании, и в конечном итоге они распространяются повсюду". (Один пример – автомобиль, другой – смартфон.) Новые технологии, по словам г-на Сулеймана, являются "усилителями хрупкости", потенциально помещая "рычаг с глобальными последствиями" в чужие руки. Он пишет, что дипфейки — манипулятивная имитация изображения или голоса — уже быстро распространяются, отравляя местные выборы в Индии и создавая возможности для банковского мошенничества в Гонконге. Вскоре, опасается он, возможность синтезировать биологическое оружие или использовать вооруженные дроны будет широко распространена – и это только немногие среди других тревожных сценариев.

Помимо неукротимой природы самой технологии, существует сложность выяснения того, как лучше всего модулировать наше стремление к ее расширению и использованию. Любому подобному усилию противодействует объединение мощных сил: например, страны, яростно конкурирующие за стратегическое преимущество или отчаянно решающие общие проблемы, такие как снабжение продовольствием, изменение климата и болезни. Сулейман допускает, что технология сама по себе не может быть ответом на подобные опасения, но это по-прежнему "самый мощный" инструмент, который у нас есть. Сдерживание усложняется также стремлением к прибыли, особенно с учетом того, что "приближающаяся волна" технологий представляет собой "величайшую экономическую награду в истории".

Но технологии трудно сдержать по другой причине: наша собственная нестабильная смесь любопытства и эго, наша запрограммированная неспособность "оставлять плоды на дереве", как выразился г-н Сулейман. Он признает в своих коллегах (и в себе) свойство, выраженное Дж. Робертом Оппенгеймером, директором по исследованиям атомной бомбы в Лос-Аламосе, штат Нью-Мексико: "Когда вы видите что-то технически красивое, вы идете вперед и делаете это, и вы будете спорить о том, что с этим делать, только после того, как добьетесь технического успеха".

Так что же делать? Для начала, предлагает г-н Сулейман, мы должны преодолеть наши первые рефлексивные реакции: отрицать наличие проблемы или немедленно обратиться к регулированию. По его словам, масштаб проблемы может вызвать реакцию, которую он называет "ловушкой отвращения к пессимизму": охваченные страхом, мы смотрим в другую сторону. Или мы можем потребовать законодательных исправлений. Однако для разработки эффективного регулирования требуется много времени, а технология просто развивается слишком быстро.

Наша цель, утверждает г-н Сулейман, должна заключаться не столько в том, чтобы остановить появление новых технологий, сколько в том, чтобы "вылепить" их и обеспечить их адаптацию к нашим потребностям. Он предлагает сделать их объектом надзора и обеспечить соблюдение правил, включая аудит и внешнюю проверку, и выступает за "более лицензированную среду", в которой самые сложные системы искусственного интеллекта будут производиться "только ответственными сертифицированными разработчиками". Он выступает за давление на критически важные точки — например, ограничение экспорта передовых компьютерных чипов или ограничение передачи данных по оптоволоконным кабелям большого объема — чтобы сдержать скорость развития. Однако он признает, что даже если его длинный список пожеланий будет принят, этого может оказаться недостаточно.

Футурист Рой Амара однажды сказал, что "мы склонны переоценивать эффект технологии в краткосрочной перспективе и недооценивать эффект в долгосрочной перспективе", и точка зрения Сулеймана о том, что мы балансируем на грани нирваны и гибели, кажется, подтверждает эту тенденцию. ИИ и синтетическая биология, возможно, развиваются быстрее, чем многие из нас думают, но не так быстро, как он думает. В частности, описывая прогресс в биологии, он склонен прыгать от ранних успехов (например, создания синтетического бактериального генома) к тому, что он считает неизбежным конечным состоянием: скажем, "миру дешевых персонализированных лекарств" или продуктов питания, производимых по требованию. На самом деле это будущее гораздо дальше, чем он себе представляет.

Но даже если время г-на Сулеймана ошибочно, его видение будущего кажется правильным: искусственный интеллект и синтетическая биология создают преобразующие возможности и экзистенциальные опасности. Как он жалобно утверждает, сейчас самое время считаться с обеими возможностями. Как мы можем управлять технологией таким образом, чтобы мы могли извлечь выгоду из ее необыкновенных перспектив, не разрушаясь при этом ее исключительной мощью?

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Источник.