Штучний інтелект розширює наші можливості і здатний витіснити деякі наявні спеціалізації, звільнивши людей більш "людських" видів діяльності. Не оминуло це й військових.
Гаррі Каспаров, один із найвизначніших шахістів усіх часів, розробив просунуті шахи після того, як у 1997 році програв матч суперкомп'ютеру Deep Blue компанії IBM. У просунутих шахах поєднуються обчислювальна точність машинних алгоритмів та людська інтуїція. Експерименти Каспарова, схожі за концепцією із взаємодією пілотованих та безпілотних повітряних суден або з "моделлю кентавра", мають важливі наслідки для використання ШІ військовими.
Фокус переклав новий текст авторів Тревора Філліпс-Левіна, Майкла Канаана, Ділана "Джус" Філліпс-Левіна, Уокера Д. Міллса та Нои Спатаро, присвячений штучному інтелекту на службі у військових.
За законом Каспарова. Як штучний інтелект створює нові військові спеціальності
У 2005 році на одному з шахових сайтів провели турнір з просунутих шахів, в якому міг взяти участь будь-хто. Дуже несподівано, що переможцями турніру стали не гросмейстери та їх машини, а два шахісти-аматори, які використовують три різні комп'ютери.
Гаррі Каспаров зауважив: "Їхнє вміння застосовувати та "тренувати" свої комп'ютери, щоб ті досконально вивчали позиції, ефективно протистояло чудовим шаховим талантам їхніх опонентів-гросмейстерів та більшої обчислювальної потужності інших учасників".
Каспаров зробив висновок, що "слабка людина + машина + найкращий процес перевершує як сильний комп'ютер окремо, так і… поєднання сильної людини + машини + гіршого процесу". Цей висновок відомий як закон Каспарова.
Оскільки Міністерство оборони прагне підвищити ефективність ШІ, закон Каспарова може допомогти у розробці архітектури управління та підготовки військовослужбовців, які його використовуватимуть.
Закон Каспарова передбачає, що для ефективної взаємодії людини і машини оператори повинні бути знайомі зі своїми машинами і знати, як їх застосувати. У конфліктах майбутнього переможуть не сили, що мають найвищу обчислювальну потужність, найпередовішу конструкцію мікросхем чи кращу тактичну підготовку, а ті, які найбільш успішно використовують нові алгоритми для доповнення процесу прийняття рішень людиною. Щоб досягти цього, американським військовим необхідно знайти, найняти і зберегти людей, які не тільки знаються на даних і машинній логіці, але й здатні повною мірою їх використовувати. З огляду на це слід удосконалити вступні іспити, загальну військову підготовку та професійну військову освіту.
Взаємодія людини та ЕОМ: оптимізація процесу
Головна ідея Каспарова полягала в тому, що для побудови "найкращого процесу" необхідний добре поінформований оператор на взаємодії між людиною і машиною. Якщо оператори не розуміють правил та обмежень своїх ШІ, вони ставитимуть неправильні питання або віддаватимуть невірні команди.
У Каспарова "слабка людина" не означає невміла або ненавчена. "Слабка людина" розуміє правила комп'ютера. Два любителі, які перемогли у шаховому матчі 2005 року, використали своє знання правил, щоб ставити правильні питання правильним чином. Ці аматори не були гросмейстерами чи експертами з просунутими стратегіями. Але вони змогли розшифрувати дані, які їм надали комп'ютери, щоб розкрити плани своїх супротивників та розрахувати правильні ходи. Інакше кажучи, вони використовували комп'ютер як спеціаліста чи експерта, обґрунтовує процес прийняття рішень.
Кількість і типи даних у глобальній мережі швидко зростають. Як і в шахах, алгоритми можуть просіювати, сортувати та структурувати дані розвідки, щоб людині було легше їх інтерпретувати.
Алгоритми ШІ можуть знаходити закономірності та ймовірності, тоді як люди визначають їх контекстуальне значення для розробки стратегії. Найважливіше питання полягає в тому, як найефективніше організувати та навчити таких людей.
Як використовувати ШІ у військових цілях. Знайомство та довіра
Коли люди-оператори погано знайомі із системами ШІ, вони часто відчувають або надто малу, або необґрунтовано велику довіру до них. Щоб навчити військових операторів правильно використовувати ШІ, необхідно ознайомити їх з обмеженнями систем та прищепити їм необхідний рівень довіри. Це особливо важливо у критичних ситуаціях, коли людина-оператор може вирішити відключити або скасувати рішення ШІ. Рівень довіри до ШІ залежить від зрілості та доведеної ефективності системи. Поки системи ШІ знаходяться на стадії розробки або тестування, оператори-люди повинні бути добре обізнані про обмеження та поведінку машини, щоб керувати нею у разі потреби. Але все змінюється зі зростанням надійності ШІ.
Розглянемо використання автоматичної системи запобігання зіткнень із землею (auto-GCAS) на винищувачах F-16. Впровадження системи затягнулося через настирливих сигналів "штурвал на себе", коли ШІ без необхідності брав на себе управління польотом під час ранніх льотних випробувань та експлуатації. Недовіра, яку це викликало у льотчиків, була цілком зрозумілою. У міру поширення такої інформації у спільноті F-16 багато льотчиків стали повністю відключати систему. Але з часом технологія ставала дедалі надійнішою, а недовіра сама собою стала проблемою, не дозволяючи льотчикам використовувати переваги перевіреного алгоритму порятунку життя. Тепер льотчики-новачки набагато більше довіряють системі.
Лейтенант Девід Алман, льотчик Національної гвардії ВПС, який проходить льотну підготовку на F-16, сказав авторам статті: "Я думаю, що середній курсант курсу "В" дуже довіряє цій системі [auto-GCAS]". Іншими словами, як тільки система буде доопрацьована, відпаде необхідність так само ретельно навчати майбутніх льотчиків нюансам поведінки своєї машини та вчити їх довірі системі.
Знадобилося кілька політичних процедур і кадрових перестановок, перш ніж льотчики F-16 почали здійснювати більшість вильотів із включеною auto-GCAS. Сьогодні Агентство перспективних оборонних проєктів і ВПС США намагаються автоматизувати деякі елементи повітряного бою у межах програми Air Combat Evolution. У межах програми оцінюється довіра льотчиків до ШІ, які працюють із ними у команді. Було виявлено, що один із льотчиків упереджено ставився до системи та відключав помічника ШІ до того, як той встигав виконати свою роботу. Така поведінка зводить нанівець переваги алгоритмів ШІ. Програми перепідготовки можуть виправити ситуацію, але якщо людина-оператор продовжує без причини втручатися у роботу систем ШІ, військові мають бути готові усунути його від участі у процесах, що мають взаємодію з ШІ.
Водночас надмірна впевненість у ШІ також може стати проблемою.
"Упереджене ставлення" або надмірна довіра до автоматизації виникає, коли користувачі не знають про межі можливостей свого ШІ. Наприклад, під час аварії літака Air France 447 пілоти страждали від когнітивного дисонансу після того, як автопілот відключився під час грози. Вони не зрозуміли, що дроселі двигунів, фізичне положення яких не має значення при включеному автопілоті, були встановлені на холостому ходу. Потягнувши на себе стики управління, пілоти очікували, що двигуни збільшать оберти, як це відбувається за нормального керування дроселями автопілота. Натомість двигуни повільно зупинилися, і швидкість літака зменшилася. Через кілька хвилин літак Air France 447 впав в Атлантику, повністю заглухнувши.
Кадри та їхні таланти
Відповідна підготовка людей-операторів вимагає не тільки певної зрілості системи, а й розмежування між тактичними та стратегічними формами ШІ. У тактичних застосуваннях, таких як літаки або системи протиракетної оборони, часові межі можуть бути обмежені понад час реакції людини, що змушує її повністю довіритися системі і дозволити останній діяти автономно. У стратегічних чи оперативних ситуаціях, навпаки, ШІ намагається визначити наміри противника, які охоплюють ширші часові межі та більш неоднозначні дані. Таким чином, аналітики, що покладаються на результати роботи ШІ, повинні бути знайомі з його внутрішніми механізмами, щоб скористатися перевагами його чудових можливостей щодо обробки даних та пошуку закономірностей.
Розглянемо тактичне застосування ШІ у повітряному бою. Наприклад, безпілотники можуть працювати у напівавтономному або повністю автономному режимах. У таких умовах люди-оператори повинні виявляти стриманість в управлінні (так звану навмисну зневагу), щоб дозволити своїм ШІ функціонувати без перешкод.
У пілотованих літаках програми-помічники ШІ можуть надавати льотчику покрокові інструкції для запобігання загрозі, що наближається, і це зовсім не схоже на покрокові інструкції для водіїв автомобілів у додатку Waze. Датчики навколо винищувача виявляють інфрачервоні, оптичні та електромагнітні сигнатури, обчислюють напрямок та режим наведення загрози та радять льотчику оптимальний набір дій. У деяких випадках ШІ-пілот може навіть взяти керування літаком на себе, якщо час реакції людини замалий, як у випадку з автоматичними системами запобігання зіткненню із землею. Коли часу замало, а тип відповідних даних вузький, операторам-людям не потрібно бути досконало знайомими з поведінкою системи, особливо вже перевіреної та сертифікованої. Немає часу сумніватися у поведінці ШІ — достатньо знати його можливості та довіряти їм.
Але незабаром вимоги зміняться, адже ШІ поступово починає відігравати все більшу роль у стратегічних процесах, таких як збір та аналіз розвідувальних даних. Коли ШІ використовується для агрегування ширшого спектра на перший погляд розрізнених даних, розуміння його підходу має вирішальне значення для оцінки результатів.
Візьмемо для прикладу наступний сценарій: система моніторингу ШІ сканує сотні бюлетенів з технічного обслуговування нафтопереробних заводів та зауважує, що кілька державних нафтових компаній у ворожій країні оголошують про плани закриття своїх заводів на "планове технічне обслуговування" у певний період. Після цього, переглянувши тисячі вантажних декларацій, система виявляє, що кілька танкерів, які вирушають із цієї країни, зіткнулися із затримками під час навантаження свого вантажу. Потім ШІ повідомляє, що ця країна створює умови для економічного шантажу.
На даному етапі людський аналітик міг би краще оцінити цей висновок, якби знав, які види затримок виявила система, наскільки вони незвичайні і чи існують інші політичні чи екологічні чинники, які б пояснити затримки.
Наступні кроки. Як ефективніше використовувати потенціал ШІ для бойових дій
У випадку з ненавченими операторами ефективність ШІ можуть звести нанівець ті самі люди, яким вони покликані допомогти. Щоб уникнути цього, для ведення бойових дій на основі алгоритмів слід оновити методи відбору та призначення військових кадрів.
Панель відбіркових авіаційних тестів ВМС, офіцерський кваліфікаційний тест ВПС або універсальна панель професійних здібностей збройних сил США оцінюють успішність кандидата з цілої низки предметів. Оскільки машини вже впроваджені в деякі галузі знань, військовим необхідно перевіряти і нові навички — зокрема, здатність розуміти машинні системи, процеси та програмування.
Зміна вступних іспитів з метою перевірки навичок інтерпретації даних та здатності розуміти машинну логіку стала б важливим першим кроком. Сертифікація розробників Google або вебсервісів Amazon пропонують цікаві моделі, які військові могли адаптувати у своїх цілях. Армії також варто заохочувати призовників та військовослужбовців за проходження навчання у суміжних областях на вже доступних майданчиках, таких як відкриті онлайн-курси.
Що стосується чинних військовослужбовців, міністр оборони повинен сприяти розвитку у них відповідних навичок шляхом пріоритетного конкурсного відбору на курси, що спеціалізуються на вивченні систем ШІ.
Серед таких курсів — програма Стенфордського університету з вивчення символьних систем, курс "AI Accelerator" Массачусетського технологічного інституту та курс "Harnessing AI" Вищої військово-морської школи. Військові також можуть розробити нові програми на базі таких навчальних закладів, як Військово-морський громадський коледж або Вища військово-морська школа, та налагодити партнерські відносини із цивільними навчальними закладами, які вже пропонують високоякісну освіту в галузі ШІ.
Доцільно також включити грамотність у галузі ШІ в курси професійної військової освіти та заохочувати проходження факультативних програм з ШІ. Ініціатива ВПС з вивчення мов програмування, яка тепер відображена у розділі 241 Закону про повноваження в галузі національної оборони на 2021 рік, є важливим першим кроком. Усі відомства повинні докладати максимум зусиль, пропонуючи розумні можливості професійного навчання всіх етапах кар'єри військовослужбовця.
Штучний інтелект швидко стає фактором, що розширює можливості людей, дозволяючи їм зосередитися на організації роботи, а не на виконанні дрібних і повторюваних завдань.
ШІ цілком здатний витіснити деякі наявні спеціалізації, звільнивши людей для більш "людських" видів діяльності. Закон Каспарова може допомогти військовим виховати цінні кадри, аби повною мірою скористатися перевагами цієї зміни.
Про авторів
Тревор Філліпс-Левін — військово-морський льотчик та офіцер відділення об'єднаної ближньої авіаційної підтримки ВМС. Співавтор кількох статей про автономні або дистанційно пілотовані платформи, опубліковані Центром міжнародної морської безпеки, журналом US Naval Institute Proceedings та Modern Warfare Institute.
Майкл Канаан — науковий співробітник начальника штабу ВПС США у Гарвардській школі Кеннеді. Автор книги T-Minus AI: Humanity's Countdown до Artificial Intelligence і New Pursuit of Global Power.
Ділан Філліпс-Левін — військово-морський льотчик та старший редактор Центру міжнародної морської безпеки.
Уокер Д. Міллс — офіцер морської піхоти, нині служить за обміном у Колумбійській військово-морській академії в Картахені, Колумбія. Позаштатний співробітник Центру інновацій та сучасної війни імені Брута Крулака та Ініціативи щодо вивчення неконвенційних бойових дій. Автор численних статей для таких видань, як War on the Rocks, Proceedings та Marine Corps Gazette.
Ноа "Спул" Спатаро — начальник відділу, який займається оцінками об'єднаного комплексного командування та управління в Об'єднаному комітеті начальників штабів. Його досвід роботи включає перехід на технології подвійного призначення та їх специфікації, створення та командування ескадрильєю дистанційно пілотованих літаків, а також командування та управління авіацією. Закінчив з відзнакою Коледж інформації та кіберпростору Національного університету оборони.