Восстание машин реально: в Китае "военный" ИИ учат противостоять врагам-людям

робот, робототехника, терминатор
Фото: Paramount Pictures | Робот Терминатор: кадр из фильма Терминатор

Исследователи используют нейросети вроде ChatGPT для того, чтобы ИИ-система НОАК смогла научиться разбираться в людях.

Related video

Китайские ученые обучают экспериментальный "военный" искусственный интеллект (ИИ) более эффективному противодействию непредсказуемым врагам-людям с помощью технологий, подобных ChatGPT, пишет SCMP.

"Впервые китайские военные публично подтвердили использование коммерческих БЯМ в своих целях. По соображениям безопасности военные информационные системы не подключают напрямую к гражданским сетям. Ученые тоже не пояснили, каким образом они связали ИИ-системы", — говорится в материале.

Зачем военные Китая используют коммерческий ИИ

Исследовательская лаборатория Сил стратегической поддержки Народно-освободительной армии (НОАК), которая курирует космические, кибер-, разведывательные и радиоэлектронные разработки китайских вооруженных сил, установила связь между своей системой ИИ и системами Ernie от Baidu и Spark от iFlyTek (это китайские большие языковые модели (БЯМ) вроде ChatGPT, — ред.).

Военный ИИ преобразовывал огромные объемы данных, полученных от военных, в описательный язык или изображения, а затем перенаправлял контент коммерческим ИИ-моделям. После того, как Ernie и Spark подтверждали получение данных, военный ИИ автоматически генерировал подсказки для более глубокого обмена информацией в рамках таких задач, как боевое моделирование. Примечательно, что ученые не вмешивались в весь этот процесс.

Проект был подробно описан в рецензируемой статье, опубликованной в декабре 2023 года в журнале Command Control & Simulation. Научный сотрудник Сунь Ифэн и его команда из Университета информационной инженерии НОАК написали, что от проекта могут выиграть как люди, так и машины, т.к. моделирование разных сценариев при помощи ИИ может помочь принять правильные решения на поле боя, разработать успешную стратегию, наладить логистику и т.д.

Сунь Ифэн и его коллеги заявили, что их цель — сделать военный ИИ более "человечным", понимающим намерения командиров на всех уровнях и хорошо общающимся с людьми. Дело в том, что большинство существующих военных ИИ уж слишком синтетические. Если они столкнуться с хитрыми и непредсказуемыми врагами-людьми, то будут легко ими обмануты. Однако коммерческие БЯМ, в которых изучены практически все аспекты жизни людей, могут помочь военному ИИ лучше их понять.

Как военный ИИ научился предугадывать поступки людей

Исследователи рассказали, что на практике им удалось научить ИИ предугадывать действия людей. Так, команда смоделировала военное вторжение США в Ливию в 2011 году. Военный ИИ предоставил Ernie информацию о вооружении и дислокации обеих армий. После нескольких раундов диалога Ernie успешно предсказал следующий шаг американских военных. Такие прогнозы могут компенсировать просчеты, ошибки, которые совершают люди. Хотя не обошлось и без проблем: прогнозы Ernie иногда были весьма расплывчатыми, давая лишь общее представление о стратегиях нападения без конкретики, необходимой военным командирам.

Команда также экспериментировала с мультимодальными методами связи. Военный ИИ создал подробную карту, которая затем была передана Spark для более глубокого анализа. В итоге, этот "иллюстративный" подход значительно улучшил производительность обеих БЯМ, позволив им создавать аналитические отчеты и прогнозы, соответствующие практическим требованиям военных.

"Китай — не единственная страна, проводящая подобные исследования. Многие генералы из различных родов войск США публично выразили интерес к ChatGPT и аналогичным технологиям и поручили исследовательским учреждениям и оборонным подрядчикам изучить возможные применения генеративного ИИ в военных целях, таких как анализ разведывательных данных, психологическая война, управление дронами и расшифровка сигналов", — пишут авторы SCMP.

Важно
ИИ совершил важное открытие, потратив 2 недели: у людей на это ушли бы десятки лет

Какими могут быть последствия

Однако один ученый заявил, что с нейросетями следует обращаться осторожно, иначе может сложиться ситуация, как в фильмах о Терминаторе, т.е. — произойдет восстание машин.

Нынешнее поколение нейросетей очень мощное и сложное, а потому представляет потенциальные риски. Если ИИ предоставить неограниченный доступ к военным сетям и конфиденциальным данным об оборудовании, последствия могут быть непредсказуемыми.

"Мы должны действовать осторожно. В противном случае сценарий, изображенный в фильмах "Терминатор", действительно может стать реальностью", — сказал ученый, попросивший журналистов сохранить его конфиденциальность.

Ранее мы писали о том, что стартап Rabbit после презентации своего ИИ-гаджета r1 на CES 2024 намеревался продать 500 устройств, однако в течение дня удалось реализовать 10 тыс. по предзаказам.