"Хуже ядерного оружия": ученый рассказал, чем опасны автономные роботы

солдат, робот, робопес, робот-собака

Если автономные системы вооружения станут доступными, они легко смогут попасть в руки террористов. Но и "элитные" боты-убийцы не менее опасны, ведь из-за них может начаться очередная гонка вооружений.

Related video

Автономные системы вооружения (АСВ) могут действовать независимо, выбирая и атакуя цели, и человек при этом никак не может повлиять на это. И тем не менее, военные ведомства многих государств вкладывают значительные средства в разработку автономного оружия: одни только США выделили $18 млрд на такие исследования в период с 2016 по 2020 год. А тем временем правозащитные организации активно борются с "военизированным" ИИ, пытаясь перевести его в правовое поле. Эксперты по внешней политике предупреждают, что без регуляции новейшие военные технологии могут дестабилизировать текущие ядерные стратегии лишь потому, что могут радикально изменить представление о стратегическом превосходстве, увеличивая риск превентивных атак. Но есть и еще больший риск — АСВ могут сочетаться с химическим, биологическим и радиологическим оружием, что сделает их опаснее ядерного.

Об автономных роботах на службе у армий разных стран в своей колонке для theconversation.com рассуждает Джеймс Доус, профессор Колледжа Макалестера

Автономное оружие не такое уж и "умное", каким кажется

Первой проблемой автор считает ошибочность идентификации. "При выборе цели сможет ли автономное оружие (АО) различать солдат вражеской армии и 12-летних детей, играющих с игрушечными пистолетами? Или мирных жителей, бегущих с места конфликта, от повстанцев, отступающих тактически?", — пишет он.

Доус отмечает, что люди тоже ошибаются, однако опасность ошибок, допущенных ИИ, в том, что негативные последствия могут быть куда более масштабными. Представьте, если целый рой дронов-убийц неправильно распознает цели — жертвами могут стать тысячи и даже десятки тысяч невинных людей. В качестве пояснения профессор приводит такой пример: представьте, что пулемет неисправен и продолжает стрелять даже тогда, когда человек не жмет на курок. Пулемет, конечно, не понимает, что совершает ошибку, но это понимает солдат, и он может направить оружие в безопасном направлении. Автономное оружие по определению не имеет такой защиты.

"Более того, даже самый умный и идеальный, по сегодняшним меркам, ИИ может совершать грубейшие ошибки. Например, нейронная сеть, разработанная для использования в больницах Питтсбурга, определила астму как средство снижения риска в случаях пневмонии; программное обеспечение Google для распознавания изображений идентифицировало афроамериканцев как горилл; инструмент машинного обучения для ранжирования кандидатов на работу, разработанный Amazon, систематически присваивает отрицательные оценки женщинам", — пишет колумнист.

Проблема не только в масштабности ошибок, допускаемых ИИ, но и в том, что создатели ботов часто не знают, почему ошибки имели место быть, следовательно, они не знают, как их исправить.

робот, разведка, военная техника Fullscreen
Робот-разведчик

Роботы-убийцы могут быть доступны едва ли не каждому

Еще одной проблемой АО Джеймс Доус называет доступность технологии. Если роботы-убийцы будут стоить относительно дешево и при этом будут эффективными, то мгновенно появится спрос и, конечно же, предложение.

"Торговлю таким оружием практически невозможно сдержать, оно распространится по всему миру и сможет попасть в руки террористов. Однако распространение "элитного" оружия — еще хуже. Страны могут начать соревноваться в разработке все более разрушительных версий АО, в том числе способного создавать химическое, биологическое, радиологическое и ядерное оружие", — рассуждает Доус.

Автор считает, что появление высококачественного АО приведет к учащению войн, "поскольку оно ослабит две основные силы, которые исторически предотвращали и сокращали войны: забота о гражданском населении за границей и забота о собственных солдатах… оно также снизит как потребность в собственных солдатах, так и риск для них, резко изменив анализ затрат и выгод, которому страны подвергаются при развязывании и ведении войн. Асимметричные войны, то есть войны, ведущиеся на земле стран, не имеющих конкурирующих технологий, станут более распространенными".

бот, армия, оружие Fullscreen
Боевой робот
Фото: rheinmetall-defence.com

Подрыв законов войны

Доус пишет и о такой проблеме, как нарушение международных законов, восходящих к Женевской конвенции 1864 года, и проводящих линию между ведением войны "с честью" и банальной резней. Законы эти основаны на идее, что люди могут быть привлечены к ответственности за свои действия даже во время войны, что право убивать других солдат во время боя не дает права убивать мирных жителей. Ярким примером привлечения к ответственности является Слободан Милошевич, бывший президент Союзной Республики Югославии, которому Международный уголовный трибунал ООН предъявил обвинения в совершении военных преступлений.

"Но как можно привлечь к ответственности роботов? Кто виноват в том, что АО совершает военные преступления? Кого предадут суду? Оружие? Солдат? Командование? Корпорацию, создавшую оружие?", — задается вопросом профессор Доус.

Чтобы привлечь солдата к уголовной ответственности за использование смарт-оружия, которое совершает военные преступления, прокуратура должна будет доказать и преступную деятельность и преступное намерение.

"Это сложно с точки зрения закона и, возможно, несправедливо с точки зрения морали, учитывая, что автономное оружие по своей природе непредсказуемо. Я считаю, что дистанция, отделяющая солдата от независимых решений, принимаемых АО в быстро меняющейся среде, слишком велика… На мой взгляд, мир не должен повторять катастрофические ошибки гонки ядерных вооружений. Он не должен переходить в антиутопию", — резюмирует Доус..