Сверхинтеллектуальный ИИ не может быть контролируем, предупреждает отчет ученых из Европейского общества Макса Планка.
Исследователи этой одной из самых уважаемых международных организаций сделали оценку возможностей человечества по контролю над сверхинтеллектуальным искусственным интеллектом, сообщает Interesting Engineering. Соответствующую статью они опубликовали в Журнале исследований искусственного интеллекта.
В данном исследовании ученые из Европейского общества Макса Планка сфокусировались на способности человечества противостоять гипотетическому сценарию, в котором ИИ решает покончить с людьми. И вывод, к которому пришли эксперты, не утешительный: при нашей современной технологии мы практически бессильны перед таким ИИ.
Поэтому ученые предлагают разработать так называемый "алгоритм содержания", который имитирует опасное поведение сверхинтеллектуального ИИ и предотвращает его разрушительные действия.
"Сверхинтеллектуальная машина, которая контролирует мир, звучит как научная фантастика", — говорит соавтор исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин общества Макса Планка. "Но уже существуют машины, которые выполняют определенные важные задачи самостоятельно, без того, чтобы программисты полностью понимали, как они этому научились. Поэтому возникает вопрос, не может ли это в какой-то момент стать неконтролируемым и опасным для человечества", — продолжает Себриан.
Конечно, все это теоретически, так как мы еще далеки от создания искусственного интеллекта с такими возможностями. Тем не менее новая статья добавляет важный аргумент к дискуссии, которую ведет кампания Stop Killer Robots, поддерживаемая такими людьми, как Илон Маск и Ноам Хомски.
Ранее Фокус рассказывал, что армия США изучает, как защитить данные для обучения ИИ: почему это важно.