Россия, Китай, США и Израиль не очень хотят ограничивать использование ИИ в вооружениях.
Госдепартамент США изложил свое видение того, насколько искусственный интеллект должен иметь доступ к ядерному арсеналу стран, которые имеют данный вид вооружения, сообщает портал Wired. В Госдепе высказались за категорический отказ допускать ИИ в такую опасную сферу, как ядерное оружие. Однако, по мнению эксперта редакции Уилла Найта, некоторые государства могут с этим не согласиться.
Госдепартамент США разработал политическая декларацию об ответственном военном использовании искусственного интеллекта, призвав все ядерные державы не внедрять ИИ в такую опасную сферу, которая может привести к гибели всего человечества. Только люди должны принимать окончательно решение о применении ЯО, иначе сценарий фильма "Терминатор" может стать реальностью.
Однако этот документ никаким образом юридически не связывает ни США, ни любые другие ядерные страны, считает эксперт редакции Уилл Найт. По его словам, должен быть разработан обширный договор между такими странами, в котором будут четко прописаны стандарты использования ИИ при разработке оружия, а уж про внедрение искусственного интеллекта в ядерную сферу и речи быть не может, считает эксперт.
Впрочем, Уилл Найт, как эксперт по искусственному интеллекту справедливо отмечает, что нейросети очень полезны там, где не хватает реакции даже подготовленного специалиста. Например, вряд ли бойцы ПВО смогут самостоятельно справиться с целым роем дронов, моментально переключаясь с цели на цель, а вот ИИ это может.
Правозащитные организации, такие как Международный Красный Крест и Stop Killer Robots настаивают не только на ограничении использования ИИ в ядерном оружии, но и вообще о запрете на его использовании в любом вооружении. Правозащитники считают, что от автономного оружия погибнет куда больше людей, чем от случайных выстрелов солдат или ошибочного попадания ракеты.
Однако, такие страны, как США, Россия, Израиль, Южная Корея и Австралия всячески блокируют попытку правозащитников протолкнуть эту идею через ООН. Одна из причин заключается в том, что эти державы видят более широкое использование ИИ в своих военных программах у уже активно применяют такое оружие.
Эксперт считает, что если уж развитие ИИ в военно-промышленном комплексе нельзя запретить, то очень важно совместными усилиями всех стран наконец-то составить четкие инструкции и совместные обязательства по стандартам его внедрения. Без этого никто не может быть уверен, что завтра какая-либо страна не доверит "ядерный чемоданчик" искусственному интеллекту.
Ранее Фокус писал, что первый в истории саммит, посвященный роботам-убийцам, провалился: в чем причина.