"Большой" ИИ не поможет США в войне с Китаем: почему подход Маска опасен для армии
Исследователи пришли к выводу, что "малый" ИИ в некоторых случаях полезнее для военнослужащих, чем большие энергоемкие модели.
Сегодня в сфере искусственного интеллекта (ИИ) преобладает принцип "чем больше, тем лучше", однако новое исследование показывает, что такой подход может подорвать разработку ИИ-технологий, необходимых американским военнослужащим сейчас и в будущем. Об этом говориться в материале Defense One.
Откуда взялась идея "больше — лучше" в ИИ
Исследователи Гаэль Вароко из Университета Париж-Сакле, Александра Саша Луччони из Института ИИ Квебека и Мередит Уиттакер из Signal Foundation в своей статье "Ажиотаж, устойчивость и цена парадигмы "больше — лучше" в ИИ" изучили историю формирования упомянутого принципа в сфере ИИ. Они выявили, что эта идея была сформулирована еще в 2012 в статье профессора Университета Торонто Алекса Крижевска.
В своей работе Алекс Крижевск утверждал, что большие объемы данных и крупномасштабные нейронные сети дают гораздо лучшие результаты для классификации изображений, чем более мелкие. Данную идею поддержали другие исследователи и со временем этот подход стал доминирующим среди крупных ИИ-компаний.
"Следствием этого является как взрыв инвестиций в крупномасштабные модели ИИ, так и сопутствующий скачок в размерах заметных (высокоцитируемых) моделей. Генеративный ИИ, будь то для изображений или текста, вывел это предположение на новый уровень, как в рамках дисциплины исследования ИИ, так и в качестве компонента популярного нарратива "больше — значит лучше", окружающего ИИ", — говорится в исследовании.
Оправдан ли принцип "больше — лучше"
В материале говорится, что производительность крупных моделей ИИ не всегда оправдывает ресурсы, которых нужны для их функционирования. Кроме того, концентрация усилий в области ИИ в относительно небольшом числе крупных технологических компаний несет в себе геополитические риски.
Несмотря на то, что Министерство обороны США уделяет внимание как большим моделям ИИ, так и менее масштабным проектам, эксперты опасаются, что будущие исследования в области "малого" ИИ могут быть ограничены из-за растущего влияния крупных ИИ-компаний.
В качестве примера приводится высказывание бывшего председателя Google Эрика Шмидта, который заявил, что компании и правительства должны продолжать заниматься энергоемкими большими моделями ИИ независимо от стоимости энергии, так как "мы все равно не достигнем климатических целей". При этом экологические издержки, в частности потребление энергии, растут значительно быстрее, чем улучшение производительности моделей ИИ.
Почему принцип "больше — лучше" опасен для армии
Эксперты отмечают, что исследования в области ИИ по принципу "больше — значит лучше" приводят к сужению и потере разнообразия в данной сфере. Как отмечают в Defense One, это сужение может иметь негативные последствия для разработки ИИ военными. Дело в том, что меньшие модели ИИ могут быть важны в местах, где компьютерных ресурсов мало, а связь прерывистая, редкая или даже отсутствует.
"Чрезвычайно часто бывает так, что более мелкие, более ориентированные на задачи модели работают лучше, чем крупные, широкопрофильные модели, при решении конкретных задач ниже по течению", — говорится в отдельной статье, опубликованной группой исследователей из Беркли.
В качестве примера приводятся БПЛА, работающие под действием РЭБ, и небольшие базы на передовых позициях, где энергии мало, а связь слабая. Операторы могут столкнуться со рядом ситуаций, когда им может пригодиться модель ИИ, работающая на относительно небольшом массиве данных и не требующая для работы массивной серверной фермы или большого количества графических процессоров. Это могут быть приложения для анализа изображений с БПЛА и спутников, а также технологии для обработки экономических, погодных, демографических и прочих данных для планирования более эффективных и безопасных операций в городах.
"Но, если область исследований ИИ отдает приоритет экспертизе в области большого ИИ над малым, это может означать меньше исследований и меньше экспертов для обучения операторов тому, как хорошо создавать свои собственные небольшие модели ИИ", — отмечают в издании.
Еще одно потенциальное последствие приоритетного развития "большого" ИИ — концентрация власти. Лишь немногие компании обладают ресурсами для создания и развертывания крупных моделей. В качестве примера упоминается Илон Маск, который является одним из самых богатых оборонных подрядчиков в мире. Илон Маск также становится одним из ключевых финансовых игроков в разработке будущего ИИ.
"Концентрированная частная власть над ИИ создает небольшой и финансово мотивированный сегмент лиц, принимающих решения в области ИИ. Мы должны рассмотреть, как такая концентрированная власть с агентством над централизованным ИИ может формировать общество в более авторитарных условиях", — отметили исследователи.
В чем преимущество "малых" ИИ
Как отмечают в Defense One, новый класс специалистов в области ИИ также разделяет мнение, что концентрация на "большом" ИИ заглушает подходы, которые могли бы быть более полезными для конкретных групп. Так, генеральный директор стартапа ИИ Useful Sensors Пит Уорден сказал изданию, что одержимость индустрии и академических кругов более масштабным ИИ упускает то, чего большинство людей на самом деле хотят от ИИ.
"Академические бенчмарки расходятся с требованиями реального мира. Например, многие клиенты просто хотят иметь возможность извлекать результаты из существующей информации (например, руководств пользователя), а не генерировать новый текст в ответ на вопросы, но исследователи не считают это интересным", — объяснил Пит Уорден.
В свою очередь Дрю Бреуниг, экс-руководитель проектами по науке о данных и стратегическим клиентам в PlaceIQ, который сейчас работает в Precisely, добавил, что высокие ожидания многих людей в отношении больших моделей ИИ вряд ли будут оправданы.
Дрю Бреуниг делит ИИ на три группы. Первая – "боги", которых он определяет, как "сверхразумные штуки с ИИ" и "замена людям, делающим много разных вещей без присмотра". Ниже в иерархии находятся "стажеры", которых он описывает как "специфические для предметной области приложения, которые помогают экспертам с напряженной и утомительной работой, делая то, что мог бы сделать стажер". Эти модели находятся под наблюдением экспертов.
Третью, наиболее локальную форму ИИ, Дрю Бреуниг назвал "шестеренки". Это модели, настроенные на выполнение одной задачи, с очень низкой устойчивостью к ошибкам, работающие без присмотра в приложениях или конвейерах. По словам эксперта, это самый распространенный вид ИИ, используемый компаниями — все крупные платформы переключились на помощь компаниям в загрузке их собственных данных для настройки моделей ИИ, которые могут хорошо выполнять какую-то одну задачу.
"Крутая вещь в сосредоточении на шестеренках заключается в том, что вы можете сделать так много с маленькими моделями! Крошечная модель, настроенная на что-то одно, может превзойти гигантскую общую модель при выполнении той же задачи", — заключил эксперт.
Напомним, ранее американские сенаторы Мэгги Хассан и Маршу Блэкберн заявили, что Китай добивается успехов в квантовой информационной науке, превосходя в этом направлении разработки США по масштабу и охвату.
Также сообщалось, что последняя модель искусственного интеллекта OpenAI o1 демонстрирует отход от человеческого мышления, занимаясь поиском правильных ответов методом проб и ошибок.