"Гірше ядерної зброї": вчений розповів, чим небезпечні автономні роботи

солдат, робот, робопес, робот-собака

Якщо автономні системи озброєння стануть доступними, вони легко зможуть потрапити в руки терористів. Але й "елітні" боти-вбивці не менш небезпечні, адже через них може початися чергова гонка озброєнь.

Related video

Автономні системи озброєння (АСО) можуть діяти незалежно, вибираючи й атакуючи цілі, і людина при цьому ніяк не може вплинути на це. І тим не менш, військові відомства багатьох держав вкладають значні кошти в розробку автономної зброї: лише США виділили $18 млрд на такі дослідження в період із 2016 по 2020 рік. А тим часом правозахисні організації активно борються з "воєнізованим" ШІ, намагаючись перевести його в правове поле. Експерти з питань зовнішньої політики попереджають, що без регуляції новітні військові технології можуть дестабілізувати поточні ядерні стратегії лише тому, що можуть радикально змінити уявлення про стратегічну перевагу, збільшуючи ризик превентивних атак. Але є і ще більший ризик — АСО можуть поєднуватися з хімічною, біологічною і радіологічною зброєю, що зробить їх небезпечнішою, ніж ядерна.

Про автономних роботів на службі в арміях різних країн у своїй колонці для theconversation.com міркує Джеймс Доус, професор Коледжу Макалестер.

Автономна зброя не така вже й "розумна", якою здається

Першою проблемою автор вважає помилковість ідентифікації. "Чи зможе в процесі вибору цілі автономна зброя (АЗ) розрізняти солдат ворожої армії і 12-річних дітей, які грають з іграшковими пістолетами? Або мирних жителів, котрі тікають з місця конфлікту, від повстанців, які відступають тактично?" — пише він.

Доус зазначає, що люди теж помиляються, проте небезпека помилок, допущених ШІ, в тому, що негативні наслідки можуть бути куди більш масштабними. Уявіть, якщо цілий рій дронів-убивць неправильно розпізнає цілі — жертвами можуть стати тисячі та навіть десятки тисяч невинних людей. Як пояснення професор наводить такий приклад: уявіть, що кулемет несправний і продовжує стріляти навіть тоді, коли людина не тисне на курок. Кулемет, звичайно, не розуміє, що припускається помилки, але це розуміє солдат, і він може спрямувати зброю в безпечному напрямку. Автономна зброя за визначенням не має такого захисту.

"Більш того, навіть найрозумніший та ідеальний, за сьогоднішніми мірками, ШІ може припускатися грубих помилок. Наприклад, нейронна мережа, розроблена для використання в лікарнях Піттсбурга, визначила астму як засіб зниження ризику у випадках пневмонії; програмне забезпечення Google для розпізнавання зображень ідентифікувало афроамериканців як горил; інструмент машинного навчання для ранжирування кандидатів на роботу, розроблений Amazon, систематично надає негативні оцінки жінкам", — пише колумніст.

Проблема не тільки в масштабності помилок, яких припускається ШІ, а й у тому, що творці ботів часто не знають, чому помилки можуть бути, отже, вони не знають, як їх виправити.

робот, розвідка, військова техніка Fullscreen
Робот-розвідник

Роботи-вбивці можуть бути доступні не кожному

Ще однією проблемою АЗ Джеймс Доус називає доступність технології. Якщо роботи-вбивці коштуватимуть відносно дешево і при цьому будуть ефективними, то миттєво з'явиться попит і, звичайно ж, пропозиція.

"Торгівлю такою зброєю практично неможливо стримати, вона пошириться по всьому світу і зможе потрапити в руки терористів. Проте поширення "елітної" зброї — ще гірше. Країни можуть почати змагатися в розробці все більш руйнівних версій АЗ, зокрема здатного створювати хімічну, біологічну, радіологічну та ядерну зброю", — міркує Доус.

Автор вважає, що поява високоякісної АЗ призведе до почастішання воєн, "оскільки вона послабить дві основні сили, які історично запобігали і скорочували війни: турбота про цивільне населення за кордоном і турбота про власних солдат... вона також знизить як потребу у власних солдатів, так і ризик для них, різко змінивши аналіз витрат і вигод, яким країни піддаються під час розв'язання та ведення воєн. Асиметричні війни, тобто війни, що ведуться на землі країн, які не мають технологій, котрі конкурують, стануть більш поширеними".

бот, армія, зброя Fullscreen
Бойовий робот
Фото: rheinmetall-defence.com

Підрив законів війни

Доус пише і про таку проблему, як порушення міжнародних законів, висхідних до Женевської конвенції 1864 року, і які проводять лінію між веденням війни "з честю" і банальною різаниною. Закони ці засновані на ідеї, що люди можуть бути притягнуті до відповідальності за свої дії навіть під час війни, що право вбивати інших солдат під час бою не дає права вбивати мирних жителів. Яскравим прикладом залучення до відповідальності є Слободан Мілошевич, колишній президент Союзної Республіки Югославії, якому Міжнародний кримінальний трибунал ООН висунув звинувачення в скоєнні військових злочинів.

"Але як можна притягнути до відповідальності роботів? Хто винен в тому, що АЗ здійснює військові злочини? Кого зрадять в суді? Зброю? Солдат? Командування? Корпорацію, що створила зброю?" — задається питанням професор Доус.

Щоб залучити солдата до кримінальної відповідальності за використання смарт-зброї, яка скоює військові злочини, прокуратура повинна буде довести і злочинну діяльність і злочинний намір.

"Це складно з точки зору закону і, можливо, несправедливо з точки зору моралі, враховуючи, що автономна зброя за своєю природою непередбачувана. Я вважаю, що дистанція, котра відокремлює солдата від незалежних рішень, ухвалених АЗ у швидко мінливому середовищі, занадто велика... На мій погляд, світ не повинен повторювати катастрофічних помилок гонки ядерних озброєнь. Він не повинен переходити в антиутопію", — резюмує Доус.