"Найти и убить": в США призвали запретить ИИ самостоятельно ликвидировать людей (видео)
Ученые выделили 4 причины, по которым нужно запретить искусственному интеллекту ликвидировать людей. Одна из них – повсеместное распространение технологий.
Институт Future of Life Institute призвал запретить использование искусственного интеллекта в разработке беспилотников. Было опубликовано видео с угрозами, которые несет в себе ИИ в военных разработках.
Видео с названием "Slaughterbots — if human: kill()" показывает, что может быть, если в роботе или ИИ будет четкая инструкция "обнаружить-идентифицировать-убить". Ролик выполнен в виде выпуска новостей с различными сценариями убийства роботами людей:
- при ограблении банков
- при охоте на военных
- при нападении на полицейские участки
В ролике также показали роботов-собак с автоматами на спинах.
"В то время как в случае беспилотником решение об ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто выживет, а кто будет убит принимается исключительно алгоритмами", — подчеркивается в видеоролике.
Поэтому FLI и Международный красный крест предлагает запретить давать право искусственному интеллекту решать, кого можно убить. Всего институт и Красный крест выделили 4 причин для запрета подобных боевых систем:
- может быть непреднамеренная эскалация ситуаций из-за широкого распространения ИИ
- массовое распространение подобных технологий по всему миру из-за их дешевизны
- непредсказуемость машинного обучения в реальных условиях и при боях
- избирательный поиск цели оптическими сенсорами, которые могут визуально определять цель.
Напомним, ученые придумали искусственный мозг для ИИ, позволяющая запускать и обучать нейросети на компактных устройствах.
31 мая был зафиксирован первый случай, когда боевой робот убил человека без вмешательства оператора.