Синтетические организмы, беспилотные системы и роботы. Технологии и угрозы войн будущего
Одно из подразделений Пентагона — DARPA — разрабатывает боевые синтетические организмы, способные жить вечно. Фокус изучал, куда заведет человечество новая гонка вооружений.
Накануне вторжения в Ирак в 2002 году министр обороны США Дональд Рамсфелд произнес свою знаменитую тираду: "Есть известные известные — это вещи, о которых мы знаем, что мы их знаем. Есть известные неизвестные, то есть вещи, о которых мы теперь знаем, что мы их не знаем. Но есть еще и неизвестные неизвестные — вещи, о которых мы не знаем, что мы их не знаем". Он полагал, что "именно последняя категория, как правило, является наиболее сложной". Рамсфелда много в чем можно упрекнуть, но когда речь заходит о вооружениях, его слова столь же афористичны, как фраза Черчилля о том, что генералы всегда готовятся к прошлой войне. И то и другое — о непредсказуемости будущего, погруженного в военные секреты.
Чуть больше года назад генерал армии США Джон Мюррей в интервью Defence News назвал три главных технологии войн будущего: искусственный интеллект, беспилотные системы и робототехника.
"Чтобы заставить все три технологии работать в цифровой среде, должна быть надежная и устойчивая сеть, архитектура данных и талант", — сказал он. Как добиться успеха на этом поприще? При помощи конвергенции, способной объединить силы в пяти сферах ведения боевых действий: воздух, земля, море, космос и цифровая среда. Американцы уже запустили Project Convergence и осенью прошлого года провели шестинедельные учения. Они стали наглядной демонстрацией того, как время само по себе превращается в оружие. Если раньше от момента выявления цели до выстрела проходило 20 мин., то теперь этот срок сократился до 20 сек.
Скорость решений и казус Петрова. СССР сбивает корейский лайнер, а система "Око" дает сбой
Такой скачок кажется невероятным, но только до той поры, пока не заглянешь в амбициозные документы военных, прописывающих перспективу на десятилетия вперед. К примеру, в Плане полета беспилотных авиационных систем на 2009–2047 годы, разработанном американскими ВВС, записано, что "в 2047 году технология сможет сократить время выполнения цикла OODA [observe, orient, decide, act — наблюдать, ориентироваться, принимать решение, действовать] до микро- или наносекунд. Подобно тому, как мастер шахмат может превзойти опытных шахматистов, [беспилотные летательные аппараты] смогут реагировать на этих скоростях, и, следовательно, этот цикл превращается в вектор "воспринимать и действовать".
Все чаще люди будут не "в цикле", а скорее "рядом с циклом", отслеживая выполнение определенных решений. В то же время достижения в области искусственного интеллекта позволят системам принимать боевые решения и действовать в рамках юридических и политических ограничений, не обязательно требуя участия человека".
Чуть больше года назад генерал армии США Джон Мюррей назвал три главных технологии войн будущего: искусственный интеллект, беспилотные системы и робототехника
На бумаге это смотрится весьма пристойно, а фраза "в рамках юридических и политических ограничений", примененная к роботам, может вызывать умиление. Однако у Пола Шарра, эксперта Пентагона по обороне и бывшего рейнджера армии США, "самостоятельность" искусственного интеллекта вызывает опасение. В 2018 году он выпустил книгу "Армия без людей: автономное оружие и будущее войны", вызвавшую огромный читательский интерес и в числе прочего вошедшую в список must read Билла Гейтса. Шарр начинает ее с драматического эпизода, случившегося осенью 1983 года в разгар холодной войны, через несколько месяцев после того, как президент США Рональд Рейган объявил о Стратегической оборонной инициативе, получившей в прессе название "Звездные войны", и три недели спустя после уничтожения советской ракетой коммерческого авиалайнера, совершавшего рейс с Аляски в Сеул и неожиданно вторгшегося в воздушное пространство СССР. Тогда погибло 269 человек, включая американского конгрессмена. Опасаясь возмездия, Советский Союз был начеку и развернул спутниковую систему раннего предупреждения под названием "Око", чтобы следить за запусками американских ракет.
Важно26 сентября, сразу после полуночи, система выдала отчет: Соединенные Штаты запустили ядерную ракету по Советскому Союзу. В бункере "Серпухов-15" под Москвой завыли сирены, и на гигантском красном экране с подсветкой высветилось сообщение "запуск". Находившийся на боевом дежурстве подполковник Станислав Петров все это видел, но сомневался: вдруг это ошибка в системе?
Потом "Око" доложила о запуске еще четырех американских ракет. Петров недоумевал: пять ракет, всего пять! В этом не было никакого смысла. Настоящая внезапная атака должна быть массированным, сокрушительным ударом по уничтожению советских ракет на земле. Петров подумал, что если бы пуск был настоящим, полет смертоносного оружия засекли бы наземные радары, едва оно начало свое движение по дуге над горизонтом. Но радары молчали. Петров колебался. Если он даст приказ на запуск советской ядерной "ответки", погибнут миллионы людей и начнется Третья мировая война. Он доверился интуиции, позвонил начальству и доложил, что в системе "Око" — сбой, и оказался прав: нападения не было. Солнечный свет, отражающийся от верхушек облаков, вызвал ложную тревогу на советских спутниках. Потенциальный Армагеддон был пресечен усилиями одного человека, не поверившего в показания датчиков.
"Что бы сделала машина на месте Петрова? — задается вопросом Пол Шарр. — Ответ очевиден: машина делала бы все, что было запрограммировано, даже не понимая последствий своих действий".
Распределенный мозг. Почему рой роботов важнее F-35
Те, кто в разных странах пытается "конструировать" будущую войну, идут к автономности искусственного интеллекта неудержимой походкой Робокопа. Бюджеты, выделяемые на эти разработки, растут как на дрожжах. Согласно оценкам экспертов, глобальные расходы на военную робототехнику в 2025 году достигнут $16,5 млрд. И хотя по своей дороговизне это недотягивает до расходов, связанных с более традиционными проектами, уже сейчас в экспертной среде раздаются голоса: лучше несколько беспилотников, чем один самолет пятого поколения. Такого рода критика обрушилась в Америке на самый дорогой в истории вид вооружения — F-35 Joint Strike Fighter (единый ударный истребитель). Программа по его созданию стартовала в 2001 году, и, по данным Пентагона, проект в целом обойдется в $1,3 трлн.
ВажноСпециалисты строили прогнозы, что F-35 будет основным типом боевого самолета в США и западных странах до 2065 года. Те, кто критиковал проект, ставший лакомым куском для корпорации Lockheed Martin, пеняли на его дороговизну и ограниченный боевой радиус действия самолета — порядка 1100 км (что ставит под угрозу базы его дислокации, особенно авианосцы). Американские эксперты в области аэронавтики и эксплуатации военных самолетов подсчитали, что полная стоимость создания и обслуживания каждого F-35 за все то время, которое он будет в строю, составит $670 млн. Гора золота весом с этот самолет стоит меньше.
Эти потрясающие воображение цифры, умноженные на тенденцию Army of None (Ничья армия, или Армия без людей), подтолкнули некоторых аналитиков к выводу: лучше вместо одного F-35 создавать эскадрильи военных беспилотных летательных аппаратов (БЛА). Потерять, допустим, несколько дронов MQ-9 Reaper, стоящих $15–30 млн за единицу в зависимости от конфигурации, — все равно дешевле, чем крушение одного "золотого самолета". Не говоря уже о том, что будущее — именно за ИИ с "перерезанной пуповиной". Внутри этого направления наметились две тенденции.
Осенью 1983-го Третья мировая не началась лишь потому, что подполковник Петров не поверил системе "Око", доложившей, что на СССР летят американские ракеты
Первая — постепенный, но неуклонный крен к полной автономности: все идет к тому, что дрон вскоре будет сам принимать решения об уничтожении цели. У беспилотников США (по крайней мере тех, о которых известно) такая самостоятельность пока не прописана. Фигура человека-оператора все еще является важной. Операции с БЛА Predator и Reaper требуют от семи до десяти пилотов для обслуживания одной "орбиты" беспилотника в режиме 24/7. Еще 20 человек необходимы для управления датчиками на дроне, анализировать данные которых — задача уже других специалистов, из области разведки. Однако, к примеру, израильский дрон Harpy уже перешел черту полной автономии. В отличие от американских "коллег", он может обследовать обширную территорию в поисках вражеских радаров и, едва найдя, уничтожать их, не спрашивая разрешения человека. Он был продан нескольким странам, Китай на его основе разработал собственный вариант БЛА.
Вторая тенденция — научить роботов работать "роями", позволяя им проявлять "коллективный разум".
"Скоординированное поведение — это разница между баскетбольной командой и пятью болванами, которые сами бегут к корзине, — объясняет Шарр. — Разница между сворой одиноких волков и волчьей стаей". В 2016 году Соединенные Штаты продемонстрировали 103 воздушных дрона, летящих вместе роем, который чиновники Министерства обороны описали как "коллективный организм, разделяющий один распределенный мозг для принятия решений и адаптирующийся друг к другу, как стаи в природе". Несколько месяцев спустя Китай представил рой из 119 дронов.
"Безумие" DARPA
В 1956 году Джеймс Киллиан, научный советник президента Дуайта Эйзенхауэра, сформулировал что-то вроде нового милитаристского "символа веры" для Америки: "Если завтра предстоит появиться невообразимому оружию, влияющему на баланс военной мощи, мы хотим, чтобы [у нас] в первую очередь были люди и средства, чтобы вообразить его".
Понадобились два года и способность "проспать" запуск Советским Союзом первого искусственного спутника Земли, чтобы в США создали Управление перспективных исследовательских проектов Министерства обороны (Defense Advanced Research Projects Agency — DARPA). Тех, кто там работает, называют сумасшедшими. Шэрон Вайнбергер, четыре года назад написавшая книгу об истории DARPA, назвала ее The Imagineers of War — "Те, кто воображает войну". Воображение этих ребят и впрямь безудержно, как стихия. Поэтому некоторые проекты DARPA кажутся сценарными заготовками для голливудских фильмов, где земляне борются с пришельцами, абсолютно непохожими на гуманоидов.
В 2016 году США продемонстрировали 103 воздушных дрона, летящих роем, — "коллективный организм с распределенным мозгом". Вскоре Китай ответил роем из 119 дронов
Несколько лет назад издание Wired написало о том, что "безумное научное подразделение Пентагона, возможно, выступило со своим самым радикальным проектом", в который на начальной стадии собирались вложить всего несколько миллионов долларов. Он носил название BioDesign, и его целью было создать синтетические организмы, способные жить вечно. Чтобы эти супервиды не попали под влияние врага и не начали выполнять его команды, лояльность к "хозяину" будет закодирована у них прямо в ДНК, а генетически запрограммированные замки защитят организмы от "несанкционированного доступа". На случай, если план DARPA пойдет наперекосяк, разработчики просто нажмут на "кнопку уничтожения", которая будет также генетически закодирована.
С ходу даже не поймешь, на что может быть похожа война с участием этих бессмертных особей. Будут ли они похожи на Терминатора? Вряд ли. Еще одна разработка DARPA показывает, что там не ищут легких путей и не делают ставку на андроидов. Речь идет о HI MEMS — гибридной микроэлектромеханической системе для насекомых. Всех тайн, как это будет работать, в ведомстве не раскрывают, но известно, что технологические чипы будут внедрять в насекомых на стадии личинки и куколки — "для наибольшего шанса на жизнеспособность". Это откроет новые возможности для слежения— не только за противником, но и за собственными гражданами.
Есть ли этика для робота: искусственный интеллект с гранатой
Непредсказуемость последствий отправки искусственного интеллекта в свободное военное плавание заставляет многих аналитиков выступать с протестом против приведения в действие таких сценариев. Уже несколько тысяч экспертов в этой области призвали к запрету роботов-убийц. Стивен Хокинг (незадолго до своей смерти), Илон Маск, соучредитель Apple Стив Возняк — вот лишь несколько всемирно известных личностей, выступивших против автономного оружия и предупредивших, что эта затея может спровоцировать "глобальную гонку вооружений ИИ".
Несколько лет назад "безумное научное подразделение Пентагона" DARPA запустило проект по созданию синтетических организмов, способных жить вечно, — идеальных солдат будущего
Проблема, однако, в том, что она уже началась. А у человечества накоплен печальный опыт не слишком успешных попыток запретить оружие, которое считалось чересчур опасным или бесчеловечным. В свое время мир пытался "обуздать" подводные лодки и самолеты. Не вышло. Запрет на химическое оружие не избавил планету от того, что режимы-изгои типа Башара Асада в Сирии все-таки его используют. Да и то, как Кремль расправляется со своими оппонентами, говорит о том, что такой способ убийства остается на повестке дня.
Если шествие к широкой автономии военного ИИ уже началось, можно ли рассчитывать здесь на цивилизационные правила игры? Например, на то, что здесь будут действовать культовые Три закона робототехники, сформулированные писателем-фантастом Айзеком Азимовым еще в 1942 году? Они просты:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен подчиняться приказам людей — за исключением случаев, когда такие приказы противоречат первому закону.
- Робот должен защищать свое существование до тех пор, пока такая защита не противоречит первому или второму закону.
Ничего сложного. Но даже в фильмах носители искусственного интеллекта обращаются с этими заповедями по-разному. Санни, главный герой-робот ленты "Я, робот", получает возможность игнорировать Три закона. Однако в кульминационной сцене он решает спасти доктора Сьюзен Келвин, хотя это ставит под угрозу успех его миссии. Им движет не логика, а любовь, то есть то, чего уж точно не стоит ожидать от творений, которые выйдут из лабораторий где-нибудь в США, Китае, Израиле и России. Скорее всего, представители этой когорты искусственного интеллекта будут себя вести примерно так, как это делает ИИ Skynet в медиафраншизе о Терминаторах. Определив, что люди представляют угрозу его существованию, Skynet решает устранить их, начиная глобальную ядерную войну.
Правда, в "Терминаторе 2: Судный день" Джон Коннор цитирует слова своей матери: "Будущее еще не определено. Нет судьбы, кроме того, что мы делаем для себя". И в последующих фильмах это повторяется как рефрен: "Нет судьбы, кроме того, что мы делаем". Но остается главный вопрос — не к героям франшизы, а к реальному человечеству: так что же мы делаем?