"Найти и убить": в США призвали запретить ИИ самостоятельно ликвидировать людей (видео)

ии в роботах
Фото: скриншот | кадр из фильма "Робокоп"

Ученые выделили 4 причины, по которым нужно запретить искусственному интеллекту ликвидировать людей. Одна из них – повсеместное распространение технологий.

Институт Future of Life Institute призвал запретить использование искусственного интеллекта в разработке беспилотников. Было опубликовано видео с угрозами, которые несет в себе ИИ в военных разработках.

Видео с названием "Slaughterbots — if human: kill()" показывает, что может быть, если в роботе или ИИ будет четкая инструкция "обнаружить-идентифицировать-убить". Ролик выполнен в виде выпуска новостей с различными сценариями убийства роботами людей:

  • при ограблении банков
  • при охоте на военных
  • при нападении на полицейские участки

В ролике также показали роботов-собак с автоматами на спинах.

"В то время как в случае беспилотником решение об ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто выживет, а кто будет убит принимается исключительно алгоритмами", — подчеркивается в видеоролике.

Поэтому FLI и Международный красный крест предлагает запретить давать право искусственному интеллекту решать, кого можно убить. Всего институт и Красный крест выделили 4 причин для запрета подобных боевых систем:

  1. может быть непреднамеренная эскалация ситуаций из-за широкого распространения ИИ
  2. массовое распространение подобных технологий по всему миру из-за их дешевизны
  3. непредсказуемость машинного обучения в реальных условиях и при боях
  4. избирательный поиск цели оптическими сенсорами, которые могут визуально определять цель.

Напомним, ученые придумали искусственный мозг для ИИ, позволяющая запускать и обучать нейросети на компактных устройствах.

31 мая был зафиксирован первый случай, когда боевой робот убил человека без вмешательства оператора.