"Знайти та убити": у США закликали заборонити ШІ самостійно ліквідувати людей (відео)
Вчені виділили 4 причини, через які потрібно заборонити штучному інтелекту ліквідувати людей. Одна з них – поширення технологій.
Інститут Future of Life Institute закликав заборонити використання штучного інтелекту у розробці безпілотників. Було опубліковано відео з погрозами, які несе у собі ШІ у військових розробках.
Відео з назвою "Slaughterbots — if human: kill()" показує, що може бути, якщо в роботі або ШІ буде чітка інструкція "виявити-ідентифікувати-вбити". Ролик виконаний у вигляді випуску новин із різними сценаріями вбивства роботами людей:
- при пограбуванні банків
- при полюванні на військових
- при нападі на поліцейські дільниці
У ролику також показали роботів-собак з автоматами на спинах.
"У той час як у разі безпілотника рішення про удар приймається віддалено оператором-людиною, у разі автономної зброї рішення про те, хто виживе, а хто буде вбитий приймається виключно алгоритмами", — наголошується у відеоролику.
Тому FLI та Міжнародний червоний хрест пропонує заборонити давати право штучному інтелекту вирішувати, кого можна вбити. Усього інститут та Червоний хрест виділили 4 причини для заборони подібних бойових систем:
- може бути ненавмисна ескалація ситуацій через широке поширення ШІ
- масове поширення подібних технологій по всьому світу через їхню дешевизну
- непередбачуваність машинного навчання в реальних умовах та при боях
- вибірковий пошук мети оптичними сенсорами, які можуть визначати мету візуально.
Нагадаємо, вчені придумали штучний мозок для ШІ, що дозволяє запускати та навчати нейромережі на компактних пристроях.
31 травня було зафіксовано перший випадок, коли бойовий робот убив людину без втручання оператора.