Лидеры оборонного сектора заинтересованы в развертывании новых инструментов на базе искусственного интеллекта.
Большие языковые модели (БЯМ) и агенты генеративного искусственного интеллекта, такие как ChatGPT, привлекли внимание общественности, но Директор по цифровым технологиям и искусственному интеллекту Министерства обороны США Крейг Мартелл сказал, что его беспокоит хаос, который такие инструменты могут породить в обществе, пишет defenseone.com.
По словам Мартелла, он "до смерти напуган" тем, как люди могут использовать ChatGPT и подобные инструменты, ориентированные на потребителя. Чат-боты, отвечающие на простые вопросы, вызывают беспокойство тогда, когда люди начали прибегать к их помощи для написания научных работ и для консультаций, касающихся состояния здоровья. Не стоит забывать, что это всего лишь программа, которая может находить непроверенный и недостоверный контент и вводить людей в заблуждение. Когда Мартелла спросили, что большие языковые модели, такие как ChatGPT, значат для общества и национальной безопасности, он ответил: "Я боюсь, что мы слишком доверяем ИИ. Разработчики не дают никаких гарантий и не предлагают инструментов для проверки информации. В итоге люди полагаются на ответы, даже если они неточны".
Также эксперт считает, что нейросети могут использоваться для дезинформации. Минусом чат-ботов является и то, что они не всегда понимают контекст. Например, журналист Аза Раскин смог прикинуться 13-летним подростком и получить от БЯМ совет, как соблазнить 45-летнего мужчину. Именно поэтому Мартелл призвал разработчиков, поставляющих ПО для нужд Пентагона, делать все возможное, чтобы пользователи могли легко отличить контент, созданный ИИ, от контента, созданного человеком. Что касается его собственных приоритетов для Минобороны, то ими является создание инфраструктуры и политики обмена данными, чтобы позволить военным создать систему Совместного командования и контроля — JADC2.
Однако далеко не все сотрудники Минобороны США разделяют опасения Мартелла по поводу ИИ и больших языковых моделей. Например, генерал-лейтенант Роберт Скиннер, глава DISA, недавно выступил с речью, частично написанной при помощи ChatGPT. Журналистам он заявил, что сервисы типа ChatGPT его вовсе не пугают и не являются проблемой для Пентагона, если их научиться правильно использовать.
Стив Уоллес, главный технический директор DISA, заявил, что пользоваться преимуществами ИИ следующего поколения — вполне возможно. Главное, правильно выбрать поставщиков услуг и правильно маркировать данные. Но Мартелл все же предостерегает от чрезмерного энтузиазма в отношении ИИ-инструментов для маркировки данных, которые, по его словам "просто не работают".
Тем не менее, Директор по цифровым технологиям и искусственному интеллекту МО США считает ИИ неплохим активом, но только в том случае, если люди будут им управлять, а не отдавать нейросетям все "на откуп".
"Ни одна ИИ-модель не выдерживает первого контакта с миром. Каждая когда-либо построенная модель уже является устаревшей к тому времени, когда вы ее получаете, потому что она была обучена на старых данных. Нам нужно создать инструменты, позволяющие контролировать ИИ-системы, чтобы последние имели для нас настоящую ценность", — подытожил он.