Разделы
Материалы

Игры разума. Как мыслят машины и что нельзя доверить искусственному интеллекту

Юрий Божич
Свою знаменитую статью "Может ли машина мыслить?" Алан Тьюринг написал еще в ­1950-м

Ставка человечества на искусственный интеллект становится все заметнее, но пока трудно предсказать, приведет ли это к выигрышу или к катастрофе.

После смерти от COVID-19 Луанн Даген, пациентки дома престарелых в Сидар-Спрингс, штат Мичиган, ее сестра нашла записи более сорока голосовых команд, адресованных виртуальному ассистенту Amazon Alexa.

"Алекса, помоги мне, — умоляла 66-летняя Луанн. — Мне больно. Я должна найти способ облегчить это". В какой-то момент она спросила: "Как мне добраться до полиции?" В ответ устройство подсказало ей дорогу к ближайшему полицейскому участку. После четырех мучительных дней уровень кислорода и кровяное давление у Даген упали, и из дома престарелых ее отправили в отделение неотложной помощи. Вскоре она умерла. Не исключено, что трагедии можно было избежать, если бы Alexa могла напрямую связаться со службой 911, но такое не было предусмотрено, поскольку этот вид интеллектуальных колонок, в отличие от телефона, недостаточно надежно передает данные о местоположении.

На казус Даген, который случился полтора года назад, ссылаются авторы второго доклада Стэнфордского проекта AI100, выпущенного в сентябре текущего года. В том месте, где задаются вопросом, не служат ли технологии искусственного интеллекта в области здравоохранения и социального обеспечения главным образом для того, чтобы снять с нас обязанности по отношению к нуждающимся людям. Но это лишь крошечная доля из того, о чем задумываются эксперты.

Искуственный интеллект: на пути в Стэнфорд

Мониторингом в области искусственного интеллекта группа AI100 начала заниматься в ­2015-м. Уже год спустя она выпустила первый отчет, проследив путь, который прошел ИИ с тех пор, как Алан Тьюринг в ­1950-м написал свою знаменитую статью "Может ли машина мыслить?" (в первой редакции был заголовок "Вычислительные машины и разум"). Именно в ней он сформулировал тест, стандартная интерпретация которого звучит так: "Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает — с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор". Голоса нет, есть только текст, набираемый на клавиатуре и высвечивающийся на экране. Временные промежутки переписки контролируются, чтобы скорость реакции не стала ключом к разгадке.

Тьюринг был остроумен. Он процитировал мнение профессора Джефферсона: "До тех пор, пока машина не сможет написать сонет или сочинить музыкальное произведение, побуждаемая к тому собственными мыслями и эмоциями, а не за счет случайного совпадения символов, мы не можем согласиться с тем, что она равносильна мозгу, т. е. что она может не только написать эти вещи, но и понять то, что ею написано". И тут же подверг мягкой усмешке и его, и категоричный взгляд, согласно которому единственный способ, с помощью которого можно удостовериться, что машина может мыслить, состоит в том, чтобы стать машиной и осознавать процесс собственного мышления. "Я уверен, что профессор Джефферсон отнюдь не желает стоять на этой крайней солипсистской точке зрения. Вероятно, он весьма охотно принял бы в качестве критерия "игру в имитацию", — пишет Тьюринг.

Ученые спорят, способен ли ИИ обмануть человека, с 1950 года, когда Алан Тьюринг написал статью "Может ли машина мыслить?" и предложил свой знаменитый тест

У него нашлись и боле поздние оппоненты. К примеру, американский философ Джон Серль в ­1980-м предложил мысленный эксперимент "Китайская комната". В нем он попытался уподобить работу компьютера человеку, абсолютно не понимающему иероглифы, но имеющему инструкции, как их сочетать, чтобы его ответы на вопросы, заданные при помощи тех же иероглифов, были верными. Получается, алгоритм существует, а мышления, подобного человеческому, нет. Таков его вывод-опровержение.

Споры о мышлении машин продолжаются до сих пор. Голливуд явно на стороне Тьюринга. Тут-то ничего удивительного. Но интереснее всего у него получается, когда он пытается скрестить Тьюринга с Джефферсоном, то есть ввести в общение между человеком и ИИ коэффициент чувственности. В фильме 2014 года Ex machina молодой программист Калеб тестирует интеллект андроида Авы, которую создал Нейтан, пригласивший его погостить у себя в горах. Калеб влюбляется. Ава тоже вроде бы проявляет чувства. Но что, если она просто изображает их? — сеет сомнения Нейтан. Так и оказывается: да, изощренная "игра в имитацию". Нейтон убит. Обманутый Калеб заперт Авой в лаборатории. Сама она улетает на вертолете в мир людей.

Все наглядно и полно иронии. Впрочем, настоящий ИИ, развивающийся семимильными шагами, похоже, питает нежные чувства к построениям своего отца-прародителя Тьюринга, а заодно — и к иронии.

Четыре года назад руководство Facebook вынуждено было отключить свою систему искусственного интеллекта, после того как машины начали общаться на собственном, несуществующем языке, который люди не понимали. Издание Digital Journal объяснило поступок строптивой системы так. ИИ опирается на принцип "поощрения", то есть продолжает действия при условии, что это принесет ему определенную "пользу". В момент, когда операторы не дали позитивного сигнала на использование английского языка, система решила создать свой "новояз".

Действия ИИ были близки если не к человеческим, то к тем, что демонстрировали животные, которых помещали в "ящик Скиннера", управляя их поведением через систему поощрений.

Как бы там ни было, сегодня ИИ — это то, что обсуждается больше всего, стоит лишь сойти чуть в сторону с натоптанных троп политических скандалов и обсуждений, в чем "были раздеты" селебрити. На расстоянии считаных дней можно без труда обнаружить целый ворох новостей по данной теме. Вот самые свежие.

  • Искусственный интеллект признал картину Рубенса "Самсон и Далила", хранящуюся в Национальной галерее в Лондоне, подделкой.
  • Формация Nova Opera презентовала в Киеве новую философскую оперу "О чем молчит Заратустра", написанную с помощью искусственного интеллекта.
  • Корейская компания Samsung совместно с учеными Гарвардского университета представила концепт имитации человеческого мозга с помощью полупроводниковых чипов; инженерам удалось описать способ копирования и переноса структуры работы мозга в нейроморфный чип.
  • Министерство науки и технологий Китая впервые опубликовало набор этических принципов для регулирования ИИ. Главная цель документа — обеспечить гарантию, что "творение Франкенштейна" наших дней всегда будет находиться под контролем людей.
  • И даже вот такое. В выходящем на большие экраны фильме "Не время умирать" Дэвид Крейг последний раз воплотит образ Джеймса Бонда. В прошлом году ИИ в качестве идеального преемника Крейга в этой роли назвал Генри Кавилла, сыгравшего Супермена в геройской франшизе Зака Снайдера.

Так как же мыслят машины? Выводы от группы AI100

Само название группы двусоставное. AI — artificial intelligence, искусственный интеллект. 100 — количество лет, которое эксперты планируют отслеживать здесь тенденции, каждые пять лет выпуская соответствующие индексы — "исчерпывающий источник данных и анализа для политиков, исследователей, руководителей, журналистов и широкой общественности, чтобы развить интуицию в сложной области ИИ". 16 сентября этого года AI100 опубликовала сразу два документа: и сам индекс, и уже упоминавшийся общий отчет.

В 2017-м Facebook отключил свою систему ИИ, после того как машины начали общаться на соб­ствен­ном несуществу­ющем языке, который люди не понимали

В индексе один из девяти главных выводов посвящен этике ИИ. По мнению экспертов, ей не хватает критериев и контрольных показателей, которые можно было бы использовать для измерения. Кроме того, исследователи и гражданское общество считают этику ИИ более важной, чем промышленные организации.

Что касается отчета, красноречиво озаглавленного "Набирая силу, собирая бурю", то здесь группа сосредоточилась на двух сторонах одной медали: возможностях и угрозах.

Возможности искусственного интеллекта

Возможности ИИ разделены на две категории. В одной рассматривается ИИ, расширяющий человеческие возможности. Аналитики видят его сильные стороны в способности синтезировать большие объемы данных, скажем, клинических, которые бы помогали подобрать методы лечения для пациента с учетом вероятных побочных эффектов. "Вторая категория включает ситуации, в которых программное обеспечение ИИ может работать автономно, — сказано в докладе. — Например, система ИИ может автоматически преобразовывать записи из рукописных форм в структурированные поля и текст в базе данных". Оба направления считаются перспективными.

Риски и угрозы искусственного интеллекта

От угроз эксперты тоже не отворачиваются. По их мнению, "особенно заметная опасность заключается в том, что ИИ может упростить создание машин, которые могут шпионить и даже убивать в больших масштабах. Но в настоящее время существует много других важных и более тонких опасностей". Много — означает четыре.

Технорешения. Они могут принести немало вреда, если в ИИ начнут видеть не инструмент, а панацею. Например, системы, оптимизирующие и автоматизирующие применение социальных услуг, могут быстро стать жесткими и отказывать в доступе мигрантам или другим лицам, оказавшимся в затруднительном положении. Авторы дают ссылку на книгу Вирджинии Юбэнкс "Автоматизация неравенства", где среди прочего приводится пример штата Индиана в США. Там в течение трех лет отклонили один миллион заявлений на получение медицинских услуг, продуктовых талонов и денежных пособий, потому что новая компьютерная система интерпретирует любую ошибку как "отказ от сотрудничества".

ИИ вместо Пикассо AI-DA — первая в мире художница-робот. Этим летом она и ее работы экспони­ровались в Музее дизайна в Лондоне.

Статистическая точка зрения на правосудие. Решения о вынесении приговора все чаще принимаются запатентованными алгоритмами, которые пытаются оценить, станет ли обвиняемый совершать преступления в будущем.

"Принятие вероятности за определенность означает, что прошлое всегда будет определять будущее, — считают авторы доклада. — В некоторых уголках общественного сознания с принятием решений ИИ ассоциируется аура нейтральности и беспристрастности, в результате чего системы принимаются как объективные, даже если они могут быть результатом предвзятых исторических решений или явной дискриминации".

Дезинформация и угроза демократии. Системы искусственного интеллекта используются для дезинформации в интернете, что дает им возможность стать угрозой демократии и инструментом фашизма — от дипфейк-видео до онлайн-ботов, манипулирующих общественным дискурсом. Этим могут воспользоваться преступники, идеологические экстремисты или государства-изгои. Дезинформация представляет собой серьезную угрозу для общества, поскольку она эффективно манипулирует доказательствами, чтобы создать петли социальной обратной связи, которые подрывают любое чувство объективной истины.

Дискриминация и риск в медицинском учреждении. Хотя точные долгосрочные эффекты алгоритмов в здравоохранении неизвестны, их потенциал для репликации предвзятости означает, что любое улучшение, которое они производят для населения в целом, может происходить за счет наиболее уязвимых. В пример авторы приводят историю с системой Optum, ставшую известной в 2019 году. Ее разработчики исключили из рассмотрения расовую принадлежность, однако попросили учесть затраты на пациента для здравоохранения. И тут процессы размежевания сразу вступили в свои права, поскольку в США уход за пациентами с черной кожей в среднем обходится в год на $1800 меньше.

По крайней мере в одном пункте (фейковые видео, манипулирующие сознанием) выводы AI100 совпали с тем, о чем было сказано в другом отчете, "Вредоносное использование искусственного интеллекта", выпущенном в начале ­2018-го при участии 26 авторов из 14 организаций, представляющих академические круги, гражданское общество и промышленность. Двумя другими угрозами в том документе назывались дроны, превращенные в снаряды, и автоматизированный компьютерный взлом.

Евангелие от Тегмарка

Оба отчета находятся на той точке спектра мнений, которую обычно обозначают как движение за дружественный ИИ. Его представители соглашаются, что озабоченность уместна и продуктивна, потому что исследования в области ИИ-безопасности и публичные обсуждения связанных с ней вопросов повышают вероятность благоприятного исхода. Им, если принять классификацию Макса Тегмарка — профессора Массачусетского технологического института, физика и космолога, — представленную в его книге "Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта", противостоят, с одной стороны, "луддиты" — они убеждены в скверном исходе прогресса и протестуют против искусственного интеллекта. А с другой — техноскептики и цифроутописты. И те и другие, пишет Тегмарк, "соглашаются, что поводов для беспокойства у нас нет, но по совершенно различным причинам: первые убеждены, что универсальный искусственный интеллект человеческого уровня в обозримом будущем не появится, вторые не сомневаются в его появлении, но убеждены, что оно практически гарантированно будет благоприятно для человечества".

По мнению философа Ника Бострома, ИИ может начать убивать людей просто потому, что их атомы понадобятся ему для выполнения задачи по произ­водству скрепок

Типичным цифроутопистом, по мнению Тегмарка, является Ларри Пейдж, один из основателей Google. Он говорит, что цифровая жизнь — естественный и желательный новый этап космической эволюции, и, если дать ей свободу, не пытаясь удушить или поработить ее, это принесет безусловную пользу всем. Он даже обвиняет Илона Маска, неустанно бьющего тревогу по поводу ИИ (в 2017-м он написал в "Твиттере", что его развитие опаснее конфликта с Северной Кореей; а тремя годами позже в интервью The New York Times за­явил, что принадлежащий Google стартап DeepMind на данный момент беспокоит его больше всего), в "видошовинизме" — стремлении приписать более низкий статус одним формам жизни в сравнении с другими на том основании, что главный химический элемент в их молекулах — кремний, а не углерод.

Маск не единственный алармист, с которым Пейджу приходится скрещивать шпаги и который считает, что ИИ, достигший интеллектуального уровня человека, способен уничтожить человечество. Философ Ник Бостром, написавший книгу "Искусственный интеллект. Этапы. Угрозы. Стратегии", еще в 2003 году придумал пример со скрепками.

Если перед искусственным интеллектом поставили задачу делать скрепки, он будет делать их как можно больше и лучше, говорит Бостром. Он будет превращать в скрепку максимально возможное число атомов, находящихся на Земле. Даже если он не будет иметь ничего против людей, он будет убивать их просто из нужды в атомах для своих скрепок.

Все это может показаться дурацкой фантазией, но Тегмарк по этому поводу замечает: "Мы не можем исключить, что цивилизация, созданная победившими машинами, поставит перед собой цели, которые мы сочли бы очень достойными, интересными и глубоко продуманными, но мы не можем исключить и того, что они окажутся и вопиюще банальными — например, наладить оптимальное производство дешевых скрепок для бумаги".

Хоть сам Тегмарк является сторонником движения за дружественный ИИ, в своей книге он набрасывает и апокалиптические картины уничтожения человека разумом, который его превзошел. Почему? Может быть, ему не понравится, как люди управляются с планетой. Или же сочтет, что они слишком противятся его нарождающейся власти. Это трудно предсказать. Как и то, каким именно способом он станет выполнять свою "миссию". И все же книгу Тегмарк заканчивает гимном оптимизму. Но не безу­словному, а тому, который один из его коллег назвал разумным, — когда человек верит, "что хорошие вещи будут случаться, если ты хорошо все спланируешь и хорошо ради них потрудишься".