Разделы
Материалы

В Минобороны США хотят доверить ИИ составлять военные планы: чего опасаются эксперты

Филипп Бойко
Фото: US Army | Армия США собирается жесткло контролировать искусственный интеллект

Американские исследователи считают, что нужно освоить инструменты искусственного интеллекта до того, как это сделал Китай или другая страна, но не пускать его к оружию.

Военные эксперты из SCSP (космической и научной программы оборонных исследований США) считают, что уровень развития искусственного интеллекта позволяет ему создавать военные планы, но главное решение должно всегда быть за человеком. Об этом пишет портал Breaking Defense.

Министерству обороны обязательно следует изучить инструменты ИИ, утверждает SCSP, чтобы Китай или какой-нибудь другой недобросовестный конкурент не опередил их, но на практике потребуется большая тщательная подготовительная работа, как это изложено в недавно опубликованном исследовании научной и космической оборонной инициативы.

Ветеран Министерства обороны, сейчас работающий старшим советником в SCSP, Юлбер Байрактари, предупредил, что в любом случае понадобится хотя бы один хорошо обученный человек, который проверит военный план и аналитику ИИ, прежде чем действовать по нему, не говоря уже о том, чтобы подключить ИИ напрямую к рою смертоносных дронов, например.

"Конкретные военные задачи требуют гораздо лучшей настройки LLM (большой языковой модели). Она должна быть специально создана для военных целей, и совсем недостаточно просто использовать имеющийся ChatGPT", — объяснил Джастин Линч, бывший армейский офицер, который возглавляет оборонные исследования SCSP.

Если генеративный ИИ сможет разработать полный военный оперативный план, сможет ли он затем также выполнить этот план, возможно, передавая приказы непосредственно стае боевых дронов? Это технологически возможно, но это ужасная идея из фильма "Терминатор", сказал Линч, и это совсем не то, что рекомендует SCSP.

Вкратце, эксперты SCSP предполагают три уровня военного и разведывательного использования генеративного ИИ.

  • Генерация контента: для военных целей нужно использовать чат-боты, только специально адаптированные для таких задач, как обобщение секретных разведывательных отчетов или инвентаризация военной логистики. Чем точнее и конкретнее наборы данных, на которых обучается ИИ, тем точнее и действеннее его ответы.
  • Автоматизированная оркестровка: вместо того, чтобы просто использовать один набор данных, каким бы большим он ни был, ИИ может собирать информацию из различных наборов баз данных. Большая языковая модель может автоматически извлекать наиболее релевантные наборы данных и наиболее подходящие для вас аналитические инструменты.
  • Агентский ИИ: здесь ИИ может перейти от рекомендации задач к их выполнению, хотя и под строгим контролем. Эксперты SCSP предполагают, что генеративный ИИ поручит подчиненным ИИ собирать информацию, чтобы заполнить пробелы в его данных, например, или организовывать конвои с припасами, а не запускать автономные смертоносные рои.

Более высокие уровни в этой структуре основаны на способности генеративного ИИ понимать широкие запросы на простом английском языке — от "запланировать питание для отряда на следующую неделю" до "придумать план материально-технического обеспечения батальона" — и превращать его в подробный чек-лист конкретных задач.

Фактически, между появлением искусственного интеллекта и ростом Китая, как утверждается в докладе SCSP, человечество сталкивается с сочетанием технологических изменений и геополитической нестабильности с пугающим "сходством с эпохой перед Первой мировой войной". Это менее чем обнадеживает, но с помощью некоторых экспертных советов (от людей и ИИ), возможно, на этот раз мир сможет лучше справиться с этой проблемой, говорят военные.

Ранее Фокус рассказывал, что армия Китая хочет быть первой, кто использует инструменты ИИ на войне. Вот что им помешает.