Человечность или эффективность: на какие большие языковые модели следует полагаться армии США

БЯМ, большая языковая модель, ии, искусственный интеллект, армия сша, языковая программа, соединенные штаты ии в армии
Армия США Фото: Ariana Smith

Поскольку США вступают в новую эру соперничества великих держав, особенно с технологически амбициозным Китаем, вопрос о том, как и когда доверять системам ИИ, таким как большие языковые модели, становится не просто техническим, а носит стратегический характер. Эти инструменты станут решающими в том, как Соединенные Штаты распределяют ресурсы и определяют приоритетность оборонных инвестиций.

Об этом говорится в статье издания The National Interest под названием "При оценке ИИ США должны полагаться на эффективность, а не на объяснения", которую перевел Фокус.

США следует научиться оценивать инструменты ИИ, такие как большие языковые модели, по их производительности, а не по способности объяснить свои решения. Доверие должно основываться на результатах, а не на нереалистичных ожиданиях антропоморфного мышления.

США должны рассматривать ИИ как стратегический актив в соперничестве великих держав

Поскольку Соединенные Штаты вступают в новую эру соперничества великих держав, особенно с технологически амбициозным Китаем, вопрос о том, как и когда доверять системам ИИ, таким как большие языковые модели (БЯМ), становится не просто техническим. Он носит стратегический характер. Эти инструменты станут решающими в том, как Соединенные Штаты распределяют ресурсы, определяют приоритетность оборонных инвестиций и удерживают позиции в Индо-Тихоокеанском регионе и за его пределами.

Відео дня
большая языковая модель, ии, БЯМ, искусственный интеллект, армия сша, языковая программа
Большая языковая модель Фото: Armees.com

Требование объяснять решения ИИ пагубно влияет на его стратегическое внедрение

БЯМ не обладают интеллектом. Это распознаватели образов, обученные на огромных массивах данных и предназначенные для предсказания следующего слова в последовательности. Подобно шахматному гроссмейстеру, делающему блестящий, но интуитивный ход, БЯМ часто не могут объяснить, почему они генерируют тот или иной результат. Тем не менее Министерство обороны через такие организации, как Главное управление по цифровым технологиям и ИИ, определило объяснимость решений ИИ в качестве требования для его оперативного использования. Это благое намерение может привести к не лучшим последствиям.

Объяснимость в БЯМ может оказаться технически недостижимой, а погоня за ней – стать отвлекающим фактором. Эти модели не "понимают" в человеческом смысле. Их результаты – это статистические ассоциации, а не причинно-следственные выводы. Объяснения постфактум, хотя и приносят удовлетворение, могут вводить в заблуждение и в конечном итоге препятствовать внедрению инструментов, способных улучшить стратегическое предвидение, анализ разведданных и оперативное планирование.

Реальная опасность заключается в чрезмерном внимании к объяснимости в ущерб эффективности. Многие решения в сфере национальной безопасности – от выбора целей до планирования закупок – уже включают непрозрачные, но проверенные процессы, такие как варгейминг или экспертная оценка. БЯМ, если их правильно протестировать, могут дополнить эти подходы, обрабатывая объемы информации со скоростью, с которой не могут сравниться аналитики-люди.

большая языковая модель, ии, искусственный интеллект, БЯМ, армия сша, языковая программа
Большая языковая модель в армии Фото: Shutterstock/dotshock

Вместо того чтобы пытаться сделать БЯМ более "человечными", мы должны оценивать их по критериям, соответствующим тому, как они работают на самом деле: последовательность, точность и ясность в отношении ограничений.

Следует спросить:

  • Обучалась ли модель на достоверных, релевантных данных?
  • Как часто она выдает точные результаты в условиях стресс-тестирования?
  • Какие риски (предвзятость, галлюцинации, контаминация данных) присущи ее использованию?

Новые методы, такие как автоматический фактчекинг, значительно снизили уровень галлюцинаций – с 9 % до 0,3 % в некоторых моделях. Системы, основанные на производительности, такие как TrustLLM, обещают оценить надежность модели более комплексно, чем это когда-либо удавалось сделать с помощью объяснений.

Доверие к ИИ должно подкрепляться стабильными результатами, а не антропоморфными объяснениями

Чтобы обеспечить эффективную и безопасную интеграцию больших языковых моделей в военные и оборонные контексты, политикам следует отдать предпочтение эксплуатационным испытаниям, а не объяснимости. Вместо того чтобы фокусироваться на искусственной интерпретируемости, системы должны оцениваться по пороговым значениям производительности до развертывания. Такой подход основывается на эмпирической надежности и гарантирует, что инструменты ИИ принесут последовательные, проверяемые результаты в реальных условиях.

Политики должны держать военное командование в курсе природы и ограничений БЯМ. Доверие к этим моделям должно основываться на измеримых результатах, а не на иллюзии понимания или антропоморфных качествах. Будучи неразумными инструментами, БЯМ работают на основе распознавания образов, а не познания, и не следует ожидать, что они будут имитировать человеческое мышление или самосознание.

большая языковая модель, ии, искусственный интеллект, армия сша, языковая программа
БЯМ работают на основе распознавания образов Фото:TSViPhoto/Shutterstock.com

Наконец, необходимо разработать рекомендации по внедрению ИИ с учетом конкретных случаев использования. Различные оперативные сценарии требуют разного уровня контроля и надежности. Например, при обобщении разведывательных данных приоритетом может быть высокая согласованность данных, в то время как для боевых применений потребуется система сдерживания и постоянный контроль со стороны человека для снижения рисков и обеспечения подотчетности.

В целом, доверие к БЯМ должно основываться не на их способности звучать по-человечески, а на их постоянной способности выдавать точные, повторяемые и проверяемые результаты. Рассматривать их как цифровых оракулов нереалистично и контрпродуктивно. Оценка систем ИИ на основе производительности, а не интерпретируемости или антропоморфной привлекательности, является гораздо более прагматичным и эффективным подходом.

Об авторе

Майкл "Спарки" Перри – подполковник ВВС и ведущий летчик MC-130 со степенями магистра в области делового администрирования и военного дела. Научный сотрудник по вопросам национальной обороны в Школе международных отношений имени Сэма Нанна при Технологическом институте Джорджии. Его исследования в рамках программы 2024/5 Defense Fellow в сотрудничестве с несколькими министерствами обороны и академическими институтами посвящены искусственному интеллекту в принятии решений Министерства обороны, а также надежности больших языковых моделей.