Военные США использовали ИИ для 85 авиаударов на Ближнем Востоке: какую задачу доверили

война, ракета, Сирия
Фото: Украинская правда | Удар по Сирии: иллюстративное фото

Военные отметили, что ИИ часто предлагал некорректные планы атак или ошибался при выборе наиболее эффективного вооружения для их выполнения. Тут технология пока людей не превзошла.

США использовали искусственный интеллект (ИИ) для определения целей на Ближнем Востоке, чтобы поразить их ударами с воздуха. Об этом сообщила представитель Министерства обороны США, передает Вloomberg.

По словам Шайлер Мур, главного технического директора Центрального командования США, которое руководит военными операциями США на Ближнем Востоке, алгоритмы машинного обучения (МО) помогли сузить цели для нанесения более 85 авиаударов бомбардировщиками и истребителями США по семи объектам в Ираке и Сирии 2 февраля 2024 года.

Военные использовали компьютерное зрение, чтобы определить, где могут находиться угрозы, например, ракетные установки. В результате удалось уничтожить и повредить сами установки, ракеты, хранилища дронов и оперативные центры ополченцев. Мур сказала, что ИИ-системы также помогли идентифицировать ракетные установки в Йемене и корабли в Красном море, некоторые из которых были уничтожены в результате многочисленных ударов в феврале этого года.

Алгоритмы наведения были разработаны в рамках проекта Maven — инициативы Пентагона, начатой в 2017 году с целью ускорить внедрение ИИ и МО в Министерстве обороны и поддержать военную разведку. Американские войска, находящиеся на Ближнем Востоке, экспериментировали с алгоритмами компьютерного зрения, обнаруживая и идентифицируя цели по изображениям, полученным со спутника и из других источников данных. Также машинное зрение было протестировано в ходе учений в течение прошлого года, после чего технологию начали использовать в реальных операциях после нападения Хамаса на Израиль 7 октября.

Важно
В Пентагоне бьют тревогу: американский военный ИИ отстает от разработок Китая

Мур подчеркнула, что возможности ИИ Maven используются для поиска потенциальных целей, а не для их проверки или развертывания против них оружия, так как в ходе учений выяснилось, что ИИ довольно часто предлагал некорректные планы атак или ошибался при выборе наиболее эффективного оружия для ведения боя. Тут он пока людей не превзошел. По ее словам, люди постоянно проверяют рекомендации ИИ по нацеливанию. Американские операторы серьезно относятся к своим обязанностям и риску того, что ИИ может допустить ошибки.

"Нет такого алгоритма, который просто работает, делает вывод и затем переходит к следующему шагу", — сказала она. — "Каждый шаг, который принимается по рекомендации ИИ, проверяется человеком".

Ранее мы писали о том, что ИИ подскажет США и союзникам, когда Китай решит напасть на Тайвань. В США опасаются неверной трактовки данных о китайских военных учениях, поэтому привлекут ИИ, чтобы не перепутать маневры с реальными военными действиями.