Розвідка роєм. Пентагон дозволить дронам і роботам воювати без контролю людини
Робот чи людина? Військові навчання за участю дронів змушують думати про те, чи можуть машини перевершити людину-оператора в складних сценаріях.
Військовий оглядач Фокуса Ігаль Левін переклав статтю про зміни, які принесуть технології штучного інтелекту (ШІ) у військову справу вже в дуже недалекому майбутньому.
У серпні минулого року кілька дюжин військових дронів і сухопутних роботів піднялися в небо і рушили по дорогах за 40 миль на південь від Сіетла. Їхнім завданням було знайти "терористів", які ховалися серед будівель.
В операції залучили так багато роботів, що жоден оператор не зміг би постійно і пильно за ними стежити. Тому дронам було дано вказівку знайти і знищити ворожих комбатантів … коли вони самі визнають це необхідним.
Зграї дронів і людина в системі
Місія, описана вище, була всього лише навчанням, організованим Агентством перспективних дослідницьких проектів Міністерства оборони США — дослідним підрозділом Пентагону. А роботи не були озброєні нічим більш смертоносним, ніж радіопередавачі, призначені для імітації взаємодії як з дружніми, так і з ворожими роботами.
Однак, ця місія була тільки частиною із серії навчань, проведених минулого літа, щоб перевірити: як штучний інтелект допомагає розширити діапазон використання автономних систем у військових операціях, зокрема в сценаріях, які занадто складні і дуже швидко змінюються. Або коли просто немає часу на те, щоб роздумувати над критичними рішеннями.
ВажливоЦі демонстрації також відображали зміни в уявленнях Пентагону про автономну зброю, оскільки стає все більш зрозуміло, що машини можуть перевершити людей при аналізі складних ситуацій або роботі на високих швидкостях.
Генерал Джон Мюррей з Командування майбутнього армії США, виступаючи місяць тому у Військовій академії США, зазначив, що ситуації, у яких залучений рій роботів — це привід для військових планувальників, політиків і суспільства в цілому замислитися над тим, чи повинна людина приймати кожне рішення про використання цієї смертоносної сили в нових автономних системах. Мюррей запитав: "Чи можливо ухвалити 100 індивідуальних унікальних рішень? Чи точно необхідно, щоб у цій системі була людина?"
Самостійність штучного інтелекту: суперечка ще не завершена
Інші коментарі військового командування свідчать про зацікавленість у розширенні можливостей автономних систем озброєння. На конференції щодо штучного інтелекту Майкл Канаан, директор щодо операцій штучного інтелекту в ВВС в Массачусетському технологічному інституті і провідний представник з питань ШІ в збройних силах США, сказав, що уявлення про ці всі питання розширюється. За словами Канаана, ШІ повинен усе більш самостійно виявляти і розрізняти потенційні цілі, поки люди приймають рішення на високому рівні.
"Я думаю, що саме в цьому напрямку ми і рухаємося", — робить висновок Канаан.
На тому ж заході генерал-лейтенант Клінтон Хіноте, заступник начальника штабу Пентагону щодо стратегії, інтеграції і вимог, заявив, що питання про те, чи можна відокремити людину від смертоносних автономних систем, є "однією з найцікавіших суперечок, яка ще не завершена" .
У цьому місяці в доповіді Комісії національної безпеки зі штучного інтелекту (консультативної групи, створеної Конгресом США), серед іншого рекомендувалося, щоб США чинили опір закликам до міжнародної заборони на розробку автономної зброї.
Тімоті Чанг, менеджер програми Darpa, котрий відповідає за проекти з участю рою роботів, каже, що навчання, проведені минулого літа, були розроблені саме для того, щоб з'ясувати, чи повинен оператор безпілотного літального апарату приймати рішення для автономних систем. Наприклад, при атаках на декількох фронтах контроль з боку людини може перешкодити виконанню місії, тому що люди не здатні реагувати досить швидко. "Насправді системи можуть працювати краще, якщо ніхто не втручається", — стверджує Чанг.
Розвідка роєм
Дронам і колісним роботам (розміром з великий рюкзак) була поставлена загальна мета, після чого були залучені алгоритми штучного інтелекту, щоб розробити план її досягнення. Деякі з них оточувала будівлі, а інші вели спостереження. Частина атакувальних "підірвалася" на мінах-пастках, але інші роботи зуміли ідентифікували маяки, що представляють ворожих комбатантів, і самостійно вирішили атакувати.
Якщо людина приймає рішення вразити рій ворожих дронів, чи потрібно їй індивідуально вибирати кожну ціль?
США та інші країни вже десятиліттями використовують автономію в системах озброєнь. Так, деякі ракети можуть самостійно ідентифікувати й атакувати ворогів у заданому місці. Але швидкий розвиток алгоритмів штучного інтелекту істотно змінить те, як військові використовують такі системи. Стандартний ШІ-код здатний управляти роботами і визначати орієнтири і цілі, причому з досить високою надійністю. Це дозволить розгорнути більше таких систем у широкому діапазоні ситуацій.
Але, як показують демонстрації дронів, широке використання ШІ іноді ускладнює для людини можливість бути в курсі того, що відбувається. Проблема в тому, що технологія штучного інтелекту може давати збої або поводити себе непередбачувано. Алгоритм "зору", навчений розпізнавати конкретну уніформу, може помилково націлюватися на когось, хто носить аналогічний одяг. Втім, Чанг каже, що алгоритми ШІ зовсім скоро покращаться настільки, що зможуть ідентифікувати ворогів з високим ступенем достовірності — і їм можна буде довіряти.
Люди управляють дронами … чи вже ні?
І все ж в останні роки використання ШІ в системах озброєнь залишається предметом для дискусії. Так, Google у 2018 році зіткнувся з протестом співробітників і громадським резонансом після того, як поставив у Військово-повітряні сили технологію штучного інтелекту в рамках проекту, відомого як Maven.
Цей проект є частиною довгої історії автономних систем озброєнь, причому деякі ракети вже здатні виконувати обмежені завдання незалежно від контролю людини. Але це також показує, як нещодавні досягнення в галузі ШІ роблять автономію більш привабливою і неминучою в певних ситуаціях. Більше того, це підкреслює довіру, яка буде надана технологіям, які на цьому етапі все ще можуть поводити себе непередбачувано.
Пол Шарр, експерт Центру нової американської безпеки та автор книги "Армія нікого: автономна зброя і майбутнє війни", говорить, що настав час провести більш складні обговорення на тему технологій автономної зброї.
"Дискусія про "людей, які керують" повинна бути більш складною, ніж просто двійкове питання: "Управляють чи вже ні? — каже Шарр. — Якщо людина вирішує вразити рій ворожих дронів, чи потрібно їй індивідуально вибирати кожну ціль?"
У листопаді 2012 року Міністерство оборони США опублікувало політику щодо автономної зброї, у якій говорилося, що автономні системи озброєнь повинні перебувати під контролем людини, але це не означає, що кожне рішення повинні приймати солдати.
Важливо"Це навіть гірше, ніж озброїти талібів"
Але є і ті, хто вважає, що військові можуть перейти рубікон, якщо почнуть використовувати ШІ для автономних бойових систем.
"Смертоносна автономна зброю досить дешева, щоб її міг собі дозволити кожен терорист, вона не відповідає інтересам національної безпеки Америки", — говорить Макс Тегмарк, професор Массачусетського технологічного інституту і співзасновник Future of Life Institute, некомерційної організації, яка виступає проти автономної зброї.
Тегмарк каже, що зброю, яка використовує ШІ, варто "затаврувати і заборонити як біологічну зброю".
"Я думаю, що одного разу ми пошкодуємо про це (мається на увазі — про передачу штучному інтелекту контролю над автономними бойовими системами. — Ред.) навіть більше, ніж про те, що озброїли талібів", — говорить Тегмарк.
Про автора
Вілл Найт — співробітник журналу WIRED, присвяченого проблемам штучного інтелекту. Раніше працював старшим редактором MIT Technology Review, де писав про фундаментальні досягнення в галузі штучного інтелекту і буму в галузі штучного інтелекту в Китаї; був редактором і автором у New Scientist; вивчав антропологію і журналістику.