Разделы
Материалы

Экс-гендиректор Google признал ИИ таким же страшным, как ядерное оружие: чем он опасен

Иллюстративное фото: роботы на поле боя

Эрик Шмидт считает, что Китаю и США стоит заключить договор о взаимном сдерживании.

Бывший генеральный директор компании Google Эрик Шмидт сравнил искусственный интеллект с ядерным оружием по мощности и предупредил о возможной катастрофе. Его выступление на форуме по безопасности в Аспене цитирует издание Vice.

По мнению Эрика Шмидта, в ближайшем будущем из-за проблем с безопасностью Китаю и США придется заключить договор о сдерживании в области искусственного интеллекта, подобно тому, как раньше запретили испытания ядерных бомб и подписали другие важные договоры в этой сфере. В 1960-х годах страны создали мир, в котором исключили "неожиданности" и достигли баланса доверия. Сейчас никто не работает над подобными ограничениями для искусственного интеллекта, хотя он "настолько же мощный".

"Я очень обеспокоен тем, что отношение США к Китаю как к коррумпированной, коммунистической или еще какой-то стране, а китайское отношение к Америке как к неудачнику, позволит людям сказать: "Боже мой, они что-то замышляют", а потом запустить нечто вроде головоломки. Начиная делать что-то для вооружения или подготовки, вы вызываете беспокойство другой стороны", — отметил Эрик Шмидт.

По словам Шмидта, он не до конца осознавал силу информации, когда только возглавил Google. Теперь он видит потенциальный вред технологий, а потому призывает создавать их с учетом этических норм и моральных ценностей человечества.

Хиросима и Нагасаки — это два японских города, которые США разрушили в конце Второй мировой войны, сбросив ядерные бомбы. Эта атака унесла жизни десяткой тысяч людей и показала, насколько мощным и страшным является ядерное оружие. После этого СССР и Китай тоже освоили технологию, и человечество живет под угрозой гарантированного взаимного уничтожения. Теория сдерживания подразумевает, что если одна страна запустит ядерные боеголовки, то ей ответят тем же, и произойдет глобальная катастрофа.

Vice отмечает, что ИИ и машинное обучение являются впечатляющими технологиями, которые часто понимают неправильно. В основном машины не так умны, как думают люди, но вполне способны создавать шедевральные произведения искусства, побеждать в видеоиграх или совершать общаться с клиентами по телефону. Некоторые разработчики пытаются заставить искусственный интеллект водить автомобиль по большим городам без участия человека, но пока возникают казусы. Другие предлагали передать ИИ контроль над ядерным оружием, веря, что он не допустит ошибок и поможет избежать катастрофы.

"ИИ далеко не так разрушителен, как ядерное оружие. Но люди, находящиеся у власти, боятся этой новой технологии и, как правило, по совершенно неправильным причинам", — считают аналитики.

Они объясняют, что главной проблемой искусственного интеллекта является не потенциал, сравнимый с ядерным оружием, а недостатки разработчиков. Машинные алгоритмы хороши настолько же, насколько создающие их люди. К примеру, расисты, осознанно или нет, передают свои взгляды на чат-ботов, которые потом допускают расистские высказывания.

Об этом в недавнем подкасте рассказал генеральный директор DeepMind Демис Хассабис, который создал ИИ, способный побеждать людей в компьютерной игре Starcraft II:

"ИИ — это очень масштабная штука. Важно, кто создает ИИ, из каких культур они происходят и какие ценности у них, у создателей систем ИИ. Системы искусственного интеллекта будут учиться сами, но останется остаток культуры и ценностей создателей этой системы".

Ранее Google уволила инженера Блейка Леймона, который заявил о создании "разумного" чат-бота LaMDA. Айтишник рассказал членам американского правительства, будто ИИ обладает "самосознанием", подобным человеческому. Ученые изучили алгоритмы LaMDA и не подтвердили слова инженера.