ИИ рискует вымиранием человечества. Как мировые правительства готовятся противостоять искусственному интеллекту
Совету безопасности ООН порекомендовали "серьезно отнестись к ИИ" — организация впервые собралась для обсуждения рисков и возможностей искусственного интеллекта.
Члены Совета безопасности заслушали выступления экспертов, которые рассказали о том, какие огромные возможности представляет, по их мнению, искусственный интеллект, но также и о серьезных рисках, а также о насущной необходимости глобального единства в этом вопросе.
На первой в таком роде сессии в высшем дипломатическом органе мира представители 15 стран услышали, что ИИ представляет "катастрофические риски для людей", но также и "историческую возможность".
Собравшиеся под председательством министра иностранных дел Великобритании Джеймса Клеверли заслушали Джека Кларка, соучредителя ведущей компании по искусственному интеллекту Anthropic, и профессора Цзэн И, содиректора Китайско-британского исследовательского центра этики и управления искусственного интеллекта.
"Ни одна страна не останется незатронутой ИИ, поэтому мы должны привлечь и задействовать самую широкую коалицию международных участников из всех секторов", — сообщил г-н Клеверли.
"Наша общая цель будет состоять в том, чтобы рассмотреть риски ИИ и решить, как их можно уменьшить с помощью скоординированных действий", – подчеркнул он при этом.
Члены Совета Безопасности выслушали двух экспертов, которые рассказали о том, что они считают огромными возможностями ИИ, но также и о серьезных рисках, которые он представляет, и о срочной необходимости глобального единства в этом вопросе.
"Мы не можем оставить разработку искусственного интеллекта исключительно субъектам частного сектора, — сказал г-н Кларк. – Правительства стран мира должны объединиться, развить государственный потенциал и продолжить разработку мощных систем искусственного интеллекта".
Далее Джек Кларк пояснил: "Система ИИ, которая способна помочь нам глубже понять биологию, также может быть системой ИИ, которую можно использовать для создания биологического оружия".
Он предупредил и о рисках непонимания технологии: "Это как если бы мы строили двигатели, не понимая принцип сгорания. Это означает, что после того, как системы ИИ будут разработаны и развернуты, люди найдут для них новые способы использования, непредвиденные их разработчиками, многие из которых будут положительными, но некоторые могут быть использованы не по назначению".
Профессор Цзэн И, директор Лаборатории когнитивных исследований мозга (the Brain-inspired Cognitive Intelligence Lab), призвал ООН серьезно отнестись к этому вопросу.
"Организация Объединенных Наций должна играть центральную роль в создании основы для ИИ в целях развития и управления для обеспечения глобального мира и безопасности", — сказал профессор.
Он предупредил: "ИИ несет риск вымирания человечества просто потому, что мы не нашли способа защитить себя от использования ИИ для игры на человеческих слабостях".
Г-н Кларк добавил: "Еще более сложной является проблема хаотичного или непредсказуемого поведения. Система ИИ после развертывания может демонстрировать узкие места, которые не были выявлены во время разработки.
"Я призываю тех, кто слушает это выступление, думать об ИИ не как о конкретной технологии, а как о виде человеческого труда, который можно покупать и продавать со скоростью компьютера и который со временем становится дешевле и эффективнее", – заключил эксперт.
Участники обсуждения задали конкретные открытые вопросы, на которые, по их словам, требовались срочные ответы.
- Кто должен иметь доступ к возможностям ИИ?
- Как правительства должны регулировать эту силу?
- Кто должен иметь возможность создавать и продавать так называемых ИИ-экспертов?
- И каких экспертов мы можем позволить создать?
"Это глобальные вопросы, — подчеркнул Кларк. – Люди проходят тщательную оценку и тестирование на рабочем месте, когда их отбирают для работы на критических участках".
Профессор Цзэн И добавил: "Это одновременно и очень забавно, и вводит в заблуждение, и безответственно, что диалоговые системы, основанные на генеративном ИИ, всегда утверждают: "Я думаю, я предлагаю".
"На самом деле, — подчеркивает эксперт, — у моделей ИИ нет "я" или "меня". Искусственный интеллект никогда не должен притворяться человеком, занимать человеческие позиции или вводить людей в заблуждение, чтобы у них было неправильное восприятие. Мы можем использовать ИИ для помощи, но никогда не должны доверять ему замену человеческого принятия решений".
Важно