ИИ идет на войну: оставит ли технология человеку возможность принимать решения

Вопрос уже не в том, будет ли ИИ в войне, он уже там, говорит общественный деятель Владислав Смирнов. Вопрос в том, останется ли человек в этом процессе реальным носителем ответственности, а не просто последним кликом перед решением, которое за него уже подготовила машина. А в завтрашний день вообще мы можем войти и без необходимости ИИ что-то согласовывать с человеком...

Компьютер с искусственным интеллектом в руках военного
ИИ стремительно учится принимать решения вместо военных | Фото: SCMP

ИИ выходит из чата и заходит в войну

Пока мы привыкаем к искусственному интеллекту как к удобному помощнику для текстов, кода, презентаций и поиска ответов, он тихо переходит в другой контур — военный. Все это есть уже не теоретическая дискуссия о будущем. Пентагон заключает соглашения с крупнейшими технологическими компаниями, чтобы интегрировать их ИИ-системы в секретные оборонные сети США.

В списке фигурируют NVIDIA, Microsoft, Amazon Web Services, OpenAI, Google, SpaceX, Reflection AI, а в официальных обновлениях также Oracle. Формулировка звучит непонятной: "законное операционное использование". Но за ней стоит не офисная автоматизация. Речь идет о системах, которые могут работать с разведданными, логистикой, планированием операций, анализом ситуации на поле боя и, потенциально, с контуром целеуказания.

Відео дня

То есть ИИ, который еще вчера отвечал на наши бытовые вопросы, теперь становится частью военной инфраструктуры.

Реальность значительно прозаичнее и потому опаснее. Военный ИИ — это не один робот с пулеметом. Это целый пласт технологий: машинное зрение, анализ спутниковых снимков, распознавание объектов, обработка радиопереговоров, киберзащита, OSINT, логистическое планирование, автономная навигация, моделирование боя, выявление фейков, а также создание фейков.

Он может не стрелять сам. Но он может видеть быстрее человека. Сортировать быстрее. Ранжировать угрозы. Подсказывать, что важнее. Показывать оператору "вероятную цель". Предлагать маршрут. Определять, какой объект имеет более высокий приоритет. И в какой-то момент человек как бы остается в контуре решения, но уже работает внутри картины, которую для него собрала машина.

Когда она ранжирует цели, она уже формирует приоритеты. Когда она выдает "оптимальный сценарий", она незаметно отодвигает другие варианты. На войне скорость часто побеждает сомнение. А иногда именно сомнение — последнее, что отделяет решение от ошибки.

Вот почему история с Anthropic так показательна. Компания, создавшая Claude, отказалась снимать собственные ограничения на использование моделей в двух сферах: автономное оружие и массовая внутренняя слежка. После этого она оказалась вне нового круга соглашений с Пентагоном, а ее контракт на сумму до 200 миллионов долларов фактически был сорван в течение нескольких месяцев.

Это далеко не корпоративный конфликт, а вполне первая большая трещина в вопросе: кто устанавливает границы для военного ИИ?

Государство говорит: нам нужны все законные инструменты для безопасности. Компания говорит: не каждое законное применение является приемлемым. Рынок говорит: если одна компания не согласится, найдется другая. А общество, как всегда, узнает об этом тогда, когда инфраструктура уже почти собрана.

Пентагон действует логично с точки зрения военной системы. Он не хочет зависеть от одного поставщика. Если Anthropic ставит жесткие ограничения, можно работать с OpenAI, Google, Microsoft, AWS, NVIDIA и другими. С позиции государственной безопасности это рационально. С позиции этики — тревожно. Потому что моральный предел одной компании превращается в техническое неудобство, которое можно обойти через конкуренцию.

Важно
Китайский военный ИИ превзошел командиров-людей во время десантной операции
Китайский военный ИИ превзошел командиров-людей во время десантной операции

Военный ИИ действительно может спасать жизни. Особенно для Украины это не абстрактная тема. Машинное зрение на дронах, анализ видео, обнаружение техники, расшифровка сигналов, киберзащита, работа с открытыми источниками, автоматизация штабной рутины — все это может давать преимущество и уменьшать человеческие потери. Для страны, которая воюет против агрессора, технологии — не игрушка, а способ выживания.

Есть ИИ, который помогает найти мину. Есть ИИ, который видит вражескую технику на спутниковом снимке. Есть ИИ, который помогает защитить сеть от атаки. Уже есть ИИ, который разгружает офицеров от рутины, чтобы они занимались стратегией. Это одна плоскость.

И есть другая: ИИ, который автоматизирует слежку за населением, генерирует убедительные фейки, моделирует поведение групп, подсказывает цели, оптимизирует удар и постепенно превращает человека в формального подтвердителя машинной рекомендации.

Граница между этими двумя плоскостями проходит не в самой технологии, а в НАМЕРЕНИИ! Она проходит в контракте, сценарии использования, доступе, контроле и ответственности.

Одна и та же модель может быть инструментом обороны или частью системы давления. Один и тот же алгоритм распознавания может помочь найти вражеский дрон или стать элементом массового наблюдения. Одна и та же генеративная система может разоблачать дезинформацию или создавать ее в промышленном масштабе.

Поэтому фраза "искусственный интеллект, который отвечал на ваши вопросы, теперь может выбирать военные цели" звучит резко, но она не пустая. Технически точнее сказать: он может помогать анализировать, классифицировать, ранжировать и рекомендовать цели. Но в реальной войне разница между "рекомендует" и "выбирает" может быстро стираться, если человек начинает доверять системе больше, чем собственной проверке.

Anthropic в этой истории не нужно идеализировать. В большом технологическом бизнесе нет святых. Но ее позиция стала маркером: даже в гонке за оборонными контрактами можно сказать "нет" автономному оружию и массовой слежке. Реакция Пентагона показала другое: если один поставщик ставит рамки, система найдет тех, кто готов работать шире.

Гражданская ИИ-индустрия начинает входить в архитектуру войны. Чипы, облака, языковые модели, машинное зрение, автономные системы, OSINT, кибербезопасность, генеративное влияние — все это складывается в новый военный стек. В войне будущего преимущество будет иметь не только тот, у кого больше ракет, а тот, кто быстрее видит, быстрее анализирует и быстрее превращает данные в действие.

Вопрос уже не в том, будет ли ИИ в войне. Он уже там.

Вопрос в том, останется ли человек в этом процессе реальным носителем ответственности, а не просто последним кликом перед решением, которое за него уже подготовила машина. А в завтрашний день вообще мы можем войти и без необходимости ИИ что-то согласовывать с человеком... потому что уже Mythos показал, насколько он может быть опасным и самодостаточным.

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Источник

Важно
ИИ позволит контролировать поле боя: начнется ли Третья мировая война из-за нейросетей
ИИ позволит контролировать поле боя: начнется ли Третья мировая война из-за нейросетей