Контроль над искусственным интеллектом как видом вооружения. Часть вторая: конкурируя с Китаем

контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя
Фото: U.S. Army | Страны установят правила в отношении наблюдаемого поведения систем ИИ

США нужно выбрать стратегию, чтобы сохранять превосходство в области проводников и вычислений — и чтобы Китай оказался зависимым от Вашингтона в этой сфере. Фокус публикует вторую часть разбора о том, что делать с развитием искусственного интеллекта.

Возможность проверки соблюдения любого соглашения о контроле над вооружениями имеет важное значение для его долгосрочного успеха. Соглашение с четкими формулировками и поддержкой со стороны причастных государств может потерпеть неудачу, если у государств нет средств для проверки соблюдения другими странами. ИИ сложен для проверки, поскольку, подобно другим формам программного обеспечения, когнитивные атрибуты системы ИИ нелегко поддаются внешнему наблюдению. "Умное" оружие может выглядеть очень похоже на "тупое" оружие того же типа. Датчики автономного транспортного средства, которые оно использует для восприятия окружающей среды, могут быть видимыми, но конкретный используемый им алгоритм остается невидимым. Это создает проблему для любого вида контроля над вооружениями для военных систем ИИ, поскольку взаимное сдерживание зависит от способности государства проверить соблюдение соглашения другим государством. Есть способы, которыми страны могут ответить на этот вызов, включая принудительные инспекции, ограничение физических характеристик систем с ИИ, регулирование наблюдаемого поведения систем ИИ и ограничение вычислительной инфраструктуры.

Фокус публикует вторую часть большой статьи Мегана Ламберта и Пола Шарре о том, как можно ограничивать применение искусственного интеллекта, как вида вооружения.

Первая часть анализа была опубликована ранее.

Принудительные инспекции

Режим принудительных инспекций мог бы обеспечить доступ сторонних наблюдателей на объекты государства и к определенным военным системам для проверки соответствия программного обеспечения государства условиям режима контроля над вооружениями. Однако любой потенциальный режим инспекций столкнется с теми же препятствиями в плане прозрачности, с которыми сталкиваются другие виды оружия: инспекции рискуют раскрыть потенциальные уязвимости в системе вооружений государства для страны-конкурента. Эту проблему можно решить в будущем путем проверки программного обеспечения с сохранением конфиденциальности, которая потенциально может проверить поведение части программного обеспечения без раскрытия частной информации. В качестве альтернативы, страны могут решить, что преимущества проверки перевешивают риски повышения прозрачности. В прошлом государства применяли режимы принудительных инспекций, например, инспекции в рамках режима нераспространения ядерного оружия для проверки использования ядерного оружия в гражданских целях.

сложности контроля за ии, контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Обновить программное обеспечение гораздо быстрее и проще, чем построить еще одну ракету или объект по обогащению ядерного топлива

Еще одно препятствие для инспекций заключается в том, что если разница между разрешенными и запрещенными возможностями сводится к программному обеспечению, государство может просто обновить свое программное обеспечение после ухода инспекторов. Обновить программное обеспечение гораздо быстрее и проще, чем построить еще одну ракету или объект по обогащению ядерного топлива. В будущем страны, возможно, смогут преодолеть эту проблему, приняв более совершенные технические подходы. Потенциальные варианты включают постоянный мониторинг программного обеспечения для обнаружения изменений или встраивание функциональности в аппаратное обеспечение, так что возможности ограничиваются аппаратным обеспечением, а не программным. Непрерывный мониторинг подразумевает установку на военных системах устройств, которые будут предупреждать инспекторов о любых изменениях в программном обеспечении. Принятие такого подхода требует дальнейшего технологического прогресса, а также приверженности государств постоянному принудительному мониторингу, а не периодическим проверкам. Также возможно, что такой подход, если он будет реализован, может иметь непредвиденные дестабилизирующие последствия в определенных сценариях. Например, обновление программного обеспечения для улучшения функциональности накануне конфликта может вызвать сигнал тревоги, который заставит другие государства предположить несоблюдение контроля над вооружениями. В качестве альтернативы, неизменный код, соответствующий режиму, можно встроить в физическое оборудование, например, через память с доступом только для чтения или интегральные схемы для конкретных приложений. Режимы принудительных инспекций останутся не лучшим вариантом для проверки соответствия договорам, если государства не смогут уверенно преодолеть проблему быстрого и масштабируемого обновления систем ИИ после инспекции.

Ограничение наблюдаемых извне физических характеристик систем с поддержкой ИИ

Вместо того чтобы фокусироваться на когнитивных способностях системы ИИ, государства могли бы сосредоточиться на общих физических характеристиках системы, которые легко наблюдаемы и трудноизменяемы, таких как размер, вес, мощность, выносливость, полезная нагрузка, боеголовка и так далее. Такой подход позволит государствам принять любые когнитивные характеристики (датчики, аппаратные средства и программное обеспечение), которые они выберут для системы. Ограничения на контроль над вооружениями будут распространяться только на общие физические характеристики машины или боеприпаса, даже если фактическая озабоченность вызвана военными возможностями, которые дает ИИ. Например, если страны обеспокоены роями противопехотных малых беспилотников, вместо того, чтобы разрешить только "тупые" малые беспилотники (что было бы трудно проверить), они могли бы запретить все вооруженные малые беспилотники, независимо от их когнитивных способностей. Страны использовали подобные подходы в прошлом, предпочитая регулировать грубые физические характеристики (которые можно наблюдать) в отличие от фактической полезной нагрузки (которая на самом деле беспокоит государства, но ее труднее проверить). Несколько договоров времен холодной войны ограничивали или запрещали определенные классы ракет, а не только ядерные боеголовки на них. Ограничение только ракет с ядерным оружием разрешило бы некоторые обычные ракеты, но это было бы труднее проверить.

ограничение дронов, контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Если страны обеспокоены роями противопехотных малых беспилотников, вместо того, чтобы разрешить только "тупые" малые беспилотники (что было бы трудно проверить), они могли бы запретить все вооруженные малые беспилотники, независимо от их когнитивных способностей
Фото: Иллюстративное фото

Регулирование наблюдаемого поведения систем ИИ

Другим вариантом является установление странами правил в отношении наблюдаемого поведения системы ИИ — например, ее действий в определенных условиях. Это было бы аналогично концепции ограничений на бомбардировки городов, которые не запрещали бомбардировщики, а регулировали их применение. Такой подход можно использовать при работе с физическими проявлениями систем ИИ, когда внешнее поведение системы доступно для наблюдения другими государствами. Например, страны могут установить правила поведения автономных надводных кораблей ВМС вблизи других судов, даже потенциально принять правила того, как вооруженные автономные системы могут четко сигнализировать об эскалации силы, чтобы избежать непреднамеренной эскалации в мирное или кризисное время. Конкретный алгоритм, используемый для программирования поведения, не имеет значения – государства могут использовать различные подходы. Подобно правилам, регулирующим поведение людей-комбатантов, регламент будет определять поведение системы ИИ, а не ее внутреннюю логику. Однако такой подход будет неэффективен для военных приложений ИИ, которые не поддаются наблюдению. Например, ограничения на роль ИИ в ядерном командовании и управлении, скорее всего, не будут заметны противнику. Этот подход также ограничен, поскольку поведение системы можно быстро изменить путем обновления программного обеспечения, что подрывает доверие и проверяемость.

Ограничение вычислительной инфраструктуры

Государства могут сосредоточить регулирование на элементах аппаратного обеспечения ИИ, поддающимся наблюдению и контролю. Системы ИИ полагаются на чипы для вычислений, поэтому страны могут потенциально ограничивать или контролировать специализированные чипы ИИ через режим нераспространения (особенно если эти чипы необходимы для запрещенного военного потенциала). Страны также могут предположительно выбрать ограничение крупномасштабных вычислительных ресурсов, также известных как "вычислительные", если они видимы или поддаются отслеживанию. Крупные модели ИИ, такие как GPT-4, становятся все более универсальными и способны выполнять разнообразные задачи. Эти высокопроизводительные системы ИИ по своей сути имеют двойное назначение. В их функциональность общего назначения по умолчанию встроены возможности, имеющие отношение к безопасности, например, способность наделять субъектов полномочиями для осуществления кибер-, химических или биологических атак. Управление вычислениями подразумевает контроль над использованием вычислений на протяжении всего жизненного цикла модели ИИ, от производства микросхем до обучения и использования модели. Современные тенденции в области ИИ показывают, что ограничение доступа к крупномасштабным вычислениям может стать особенно эффективным методом отказа в доступе к самым передовым возможностям ИИ.

угроза ии, контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Крупные модели ИИ, такие как GPT-4, становятся все более универсальными и способны выполнять разнообразные задачи

В последние годы передовые исследовательские лаборатории ИИ инвестировали значительные средства в крупномасштабные вычисления для машинного обучения. Ведущие исследовательские модели ИИ обучаются на тысячах специализированных чипов ИИ, таких как графические процессоры (GPU), которые непрерывно работают неделями. С 2010 по 2022 год объем вычислений, используемых для обучения передовых моделей ИИ, вырос в десять миллиардов раз, удваиваясь каждые шесть месяцев (для самых крупных моделей — каждые 10 месяцев). Такой темп роста намного быстрее, чем 24-месячный период удвоения по закону Мура, и быстрее, чем текущие темпы совершенствования аппаратного обеспечения, которое удваивается каждые два с половиной года. Для достижения такого роста вычислений стоимость крупномасштабного обучения резко возрастает. По независимым оценкам, стоимость обучения самых крупных моделей составляет как минимум миллионы долларов, а возможно, и десятки миллионов долларов за финальный цикл обучения. Рост затрат приводит к консолидации прогресса на передовой исследований в области ИИ в руках горстки технологических компаний с большими капиталами, закрывая академическим исследователям доступ к обучению наиболее требовательных к вычислениям моделей. Хотя это создает проблемы для разнообразия сообщества исследователей в области ИИ, растущие барьеры для входа открывают возможность для контроля доступа к этим возможностям ИИ.

Поскольку чипы являются контролируемым физическим ресурсом, доступ к вычислительно-интенсивным возможностям ИИ можно ограничить, контролируя доступ к высокопроизводительным чипам ИИ. Ограничение доступа к крупномасштабным вычислениям — особенно привлекательный подход, поскольку он будет работать даже в режиме некоторой "утечки", так как запрещенные субъекты должны собирать большие объемы вычислений, чтобы быть эффективными. Фактически, правительство США применило именно такой подход в октябре 2022 года, введя всеобъемлющий контроль за экспортом чипов ИИ, предназначенных для Китая, даже если эти чипы были произведены за пределами США. В случае успеха американский контроль за экспортом высокотехнологичных чипов по сути закроет Китаю доступ к самым передовым возможностям ИИ.

Осуществимость контроля над вооружениями, направленного на аппаратные средства ИИ, будет в значительной степени зависеть от степени демократизации инфраструктуры производства чипов в глобальном масштабе или ее концентрации в руках нескольких субъектов. Хотя современные цепочки поставок полупроводников в значительной степени глобализированы, они также содержат узкие места. Эти лазейки дают нескольким странам возможность контролировать доступ к аппаратному обеспечению ИИ. Контроль США за экспортом передовых чипов ИИ в Китай возможен благодаря доминирующему положению американских компаний в сфере производства полупроводникового оборудования. Американский контроль запрещает использование оборудования американского производства для производства высокотехнологичных чипов ИИ, предназначенных для Китая, даже если эти чипы производятся за пределами США. Страны, которые доминируют в будущих узловых точках цепочки поставок чипов, потенциально могут использовать аналогичные меры для контроля доступа к аппаратному обеспечению ИИ.

как контролировать чипы Fullscreen
Осуществимость контроля над вооружениями, направленного на аппаратные средства ИИ, будет в значительной степени зависеть от степени демократизации инфраструктуры производства чипов в глобальном масштабе или ее концентрации в руках нескольких субъектов
Фото: Samsung Global Newsroom

Однако будущее цепочек поставок полупроводников весьма неопределенно. Кризисы в цепочках поставок и геополитическое соперничество стимулируют вмешательство государства в мировой рынок полупроводников, вызывая неопределенность насчет того, как будет развиваться рынок. Недавние меры экспортного контроля США являются лишь новейшим примером вмешательством государства в мировой рынок полупроводников, и потребуется время, чтобы проявились последствия этих мер второго и третьего порядка. Некоторые текущие тенденции, похоже, указывают на большую концентрацию цепочек поставок оборудования, в то время как другие тенденции указывают на большую демократизацию. Одним из факторов, способствующих повышению концентрации в отрасли, является высокая стоимость заводов по производству полупроводников. С другой стороны, и Китай, и США прилагают все усилия для увеличения собственного производства чипов по соображениям национальной безопасности, в обоих случаях противодействуя естественной консолидации рынка, поскольку тратят государственные ресурсы на субсидирование новых фабрик.

Важно
Контроль над искусственным интеллектом как видом вооружения. Часть первая: технологии и проблемы

Американский экспортный контроль сам по себе имеет побочный эффект, создавая финансовые стимулы для частного сектора обходить американский контроль, переделывая свое оборудование для производства чипов так, чтобы оно не зависело от американских технологий, для последующей продажи их на китайском рынке. Китай импортирует чипов на сумму более 400 миллиардов долларов в год. Хотя экспортный контроль США в настоящее время затрагивает лишь примерно 1% китайского рынка чипов, рынок запрещенных чипов наверняка будет расти, если американский контроль останется неизменным (о чем уже заявили официальные лица США), и сегодняшние передовые чипы завтра устареют. Мощные рыночные и нерыночные силы влияют на мировую полупроводниковую промышленность, и долгосрочное влияние этих сил на цепочки поставок остается неясным.

Тенденции к повышению эффективности алгоритмов также могут подорвать эффективность контроля над вычислительными ресурсами с целью контроля над возможностями ИИ. Хотя объем вычислений, используемых для обучения передовых исследовательских моделей ИИ, со временем увеличивается, после достижения прорыва алгоритмические усовершенствования уменьшают объем вычислений, необходимых для достижения того же уровня производительности. Например, с 2012 по 2021 год объем вычислений, необходимых для достижения одинакового уровня производительности при классификации изображений в ImageNet (базе данных распознавания изображений) сокращался вдвое каждые девять месяцев. Улучшение эффективности алгоритмов может быстро демократизировать доступность моделей ИИ за счет снижения объема вычислительного оборудования, необходимого для обучения моделей, что делает их более доступными.

Последней проблемой использования вычислений для контроля доступа к возможностям ИИ является фундаментальная асимметричность вычислительных ресурсов, необходимых для обучения моделей ИИ по сравнению с ее использованием — процесс, известный как "вывод". Обучение модели ИИ на данных является очень трудоемким процессом, требующим огромных объемов данных и вычислений для самых крупных моделей. Однако после обучения модели процесс использования обученной модели для выполнения задачи, такой как генерация текста, классификация изображения или распознавание лица, обычно требует гораздо меньше вычислений. Это означает, что наиболее эффективная точка в конвейере разработки ИИ для контроля доступа к вычислениям находится на этапе обучения. Ограничение доступа субъектов к большим объемам вычислений — и регулирование поведения тех, кто имеет такой доступ — может стать эффективным методом ограничения доступа к возможностям ИИ. Yj после обучения модели вычисления становятся гораздо менее эффективным средством контроля. Обученные модели могут быстро распространяться и получают куда более низкие пороги для входа пользователей с точки зрения требований к данным, вычислениям и человеческому капиталу по сравнению с обучением новых моделей.

обучение искусственного интеллекта, контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Последней проблемой использования вычислений для контроля доступа к возможностям ИИ является фундаментальная асимметричность вычислительных ресурсов

Обученные модели могут распространяться, если субъекты намеренно выпускают версии с открытым исходным кодом, если модели были украдены или произошла утечка исходного кода. В настоящее время передовые модели ИИ быстро тиражируются с помощью версий с открытым исходным кодом. Аналоги генеративных моделей ИИ GPT-3 и DALL-E с открытым исходным кодом были выпущены через 14 и 15 месяцев, соответственно. Как только модели становятся общедоступными, они быстро распространяются. Другой способ распространения обученных моделей — утечка или кража модели. Языковая модель ИИ LLaMA компании Meta просочилась на 4chan, обойдя попытки Meta ограничить доступ к ней. После публичного распространения обученной модели вычисления могут перестать быть эффективным методом контроля, поскольку требования к вычислениям для выводов на обученных моделях относительно низкие. Обученные модели также можно доработать для конкретного использования путем дополнительного обучения, но без необходимости повторного дорогостоящего первоначального обучения. Для эффективного ограничения доступа к высокотехнологичным возможностям ИИ экспортный контроль над чипами должен быть сопряжен с экспортным контролем над обученными моделями, превышающими определенный порог вычислений.

Заглядывая в будущее

Современные проблемы контроля над военным потенциалом, создаваемым ИИ, больше всего напоминают милитаризацию технологий индустриальной эпохи на рубеже 20-го века, когда страны пытались контролировать целый ряд новых опасных видов оружия. Ведущие военные державы встречались более 15 раз для обсуждения различных инициатив по контролю над вооружениями с 1868 по 1938 год. Масштабы этой дипломатической деятельности показывают уровень настойчивости и терпения, необходимый для достижения даже скромных результатов в контроле над вооружениями. Политики, ученые и правозащитники могут предпринять ряд шагов уже сегодня, чтобы начать закладывать основы для будущего контроля над вооружениями ИИ. Эти шаги включают в себя расширение диалога о рисках, которые представляет ИИ, и о потенциальных мерах контроля над вооружениями, которые можно ввести, создание норм для надлежащего использования военного ИИ, модели сотрудничества государств в области военного ИИ, а также формирование самой технологии ИИ таким образом, чтобы сделать ее более контролируемой в будущем. Хотя ни один из этих шагов не гарантирует, что будущие усилия по контролю над вооружениями ИИ будут успешными, они могут повысить вероятность успеха.

Расширение диалога

Расширение диалога на всех уровнях для лучшего понимания возможного использования ИИ на поле боя поможет выявить желательные и осуществимые меры контроля над вооружениями. Научные конференции, академические обмены между академическими учреждениями, двусторонние и многосторонние встречи, дискуссии на международных форумах — все это поспособствует углублению взаимопонимания между международными акторами. В этих диалогах также должны участвовать ученые и инженеры в области ИИ, чтобы убедиться, что дискуссии основаны на технических реалиях. Поскольку технологии ИИ развиваются в коммерческом секторе, в них также должны участвовать крупные технологические компании и организации, занимающиеся разработкой норм в области ИИ, такие как Microsoft, Google, OpenAI, Baidu, Tencent и Пекинская академия искусственного интеллекта. Важно, чтобы эти обсуждения не были связаны с "этическим промыванием мозгов" и узакониванием неправомерного использования технологий ИИ, например, для нарушения прав человека. Институтам слишком легко выдвигать благонамеренные принципы и заявления об ответственном ИИ. Эти заявления должны сопровождаться действиями, демонстрирующими последовательность и приверженность ответственному использованию ИИ. Формирование норм использования ИИ по мере их разработки станет мощным инструментом для руководства будущим использованием технологии ИИ. Поскольку ИИ настолько вездесущ, многие меры по контролю над вооружениями должны со временем получить широкое распространение, чтобы быть эффективными, как нынешний контроль над вооружениями в отношении химического и биологического оружия. Налаживание диалога можно начать с малого. Если бы США и Китай — крупнейшие военные державы мира и державы, обладающие ИИ, — взяли на себя инициативу, это стало бы мощным способом формирования ожиданий других стран в отношении военного ИИ.

Формирование норм

Соединенные Штаты активно участвуют в формировании норм использования ИИ. В последние годы правительство США постоянно выпускает документы по военному ИИ, включая этические принципы ИИ Министерства обороны, Руководство по ответственному ИИ Инновационного отдела Министерства обороны, Стратегию ответственного ИИ Министерства обороны, обновление политики Министерства обороны по автономности оружия, заявление о контроле человека над ядерным оружием в Обзоре ядерной политики 2022 года и политическую декларацию Государственного департамента по использованию военного ИИ. Эти односторонние политические заявления не будут сдерживать развитие ИИ другими государствами, но они могут помочь сформировать взгляды государств на допустимость использования ИИ военными. В качестве следующего шага американские политики должны работать с другими государствами над принятием этих принципов, чтобы помочь сформировать новые нормы использования ИИ.

Налаживание сотрудничества

Ориентируясь на достижимые цели — практически не вызывающие возражений меры по контролю над вооружениями или укреплению доверия — государства могут помочь выстроить модели сотрудничества для управления рисками ИИ. Одной из областей, особенно подходящих для международного сотрудничества, является "международное соглашение об автономных инцидентах" для автономных безэкипажных судов, вдохновленное американо-советским соглашением об инцидентах на море 1972 года. Многие существующие международные соглашения уже регулируют поведение самолетов и судов без экипажа, включая Конвенцию о международных правилах предотвращения столкновений на море, Кодекс незапланированных встреч на море и многочисленные двусторонние соглашения между США и Китаем. Обновление существующих соглашений или разработка нового соглашения, охватывающего автономные системы без экипажа, может стать ценным шагом в укреплении доверия и сотрудничества государств для управления рисками ИИ.

Формирование развития ИИ

Самый важный шаг, который политики США и союзников могут предпринять сегодня, чтобы контролировать использование ИИ в будущих конфликтах, — это формирование самой технологии ИИ, чтобы сделать ее более контролируемой. Вычислительное оборудование является особенно ценной точкой контроля из-за тенденций развития ИИ, требующего больших вычислений, и возможности физически ограничить доступ к чипам. Политические решения, принимаемые сегодня, могут сделать вычисления более или менее управляемыми в будущем. Правительство США включилось в промышленную политику в отношении полупроводников посредством государственных субсидий и экспортного контроля, но пока что без четкого понимания целей политики. Субсидии и экспортный контроль являются важными инструментами для создания основ управления вычислительной техникой, но они неполны и могут даже навредить при неправильном применении. Правительству США необходима комплексная стратегия для обеспечения постоянного контроля над доступом к крупномасштабным вычислительным ресурсам. Существует ряд ключевых элементов, необходимых для успешной стратегии управления вычислениями.

контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Комплексная стратегия США должна сдерживать производство Китаем передовых полупроводников
Фото: unsplash.com
  • Во-первых, комплексная стратегия должна сдерживать производство Китаем передовых полупроводников. Введенный в октябре 2022 года американский экспортный контроль на отправку в Китай оборудования для производства полупроводников нанес тяжелый удар по китайской внутренней промышленности по производству полупроводников. Но он будет успешным только в том случае, если Япония и Нидерланды присоединятся к Америке в этих усилиях. В совокупности Япония, Нидерланды и США контролируют 90% мирового рынка оборудования для производства полупроводников. В начале 2023 года в новостях сообщалось, что Япония и Нидерланды приняли меры контроля, аналогичные американским, хотя многое будет зависеть от того, на какие именно технологии эти меры контроля будут направлены.
  • Во-вторых, стратегия США должна обеспечить, чтобы американские компании продолжали доминировать в ключевых узловых точках глобальной цепи поставок. В своей промышленной политике в области полупроводников правительство США должно уделять приоритетное внимание созданию внутренней экосистемы для передового производства, чтобы обеспечить доминирование американских компаний в этих важных узловых точках для технологии производства полупроводников следующего поколения. Сохранение доминирующего положения американских компаний гарантирует, что правительство США получит возможность контролировать доступ к вычислительной технике в будущем.
превосходство сша в сфере проводников, контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Президент США Джо Байден изучает квантовый компьютер IBM
  • В-третьих, важно улучшить отслеживание вычислительных систем, чтобы предотвратить утечку контролируемых чипов к нежелательным субъектам. Американский экспортный контроль над чипами ИИ будет эффективным только в том случае, если он будет соблюдаться. Правительство США должно улучшить свои инструменты и ресурсы для отслеживания и мониторинга контролируемых чипов, чтобы предотвратить накопление запрещенными субъектами больших объемов вычислительной техники.
  • В-четвертых, стратегия США должна поддерживать зависимость китайских фирм от вычислительных ресурсов, использующих американские технологии. Целью американских мер контроля должно быть не лишение китайских фирм доступа к любым американским технологиям, а сохранение их зависимости от американских технологий, чтобы правительство США могло контролировать их доступ к большим объемам вычислений. Разработчики политики должны помнить о потенциальных недостатках экспортного контроля, особенно об ограничениях на сами чипы ИИ. Экспортный контроль может ускорить развитие цепочек поставок, не зависящих от американских технологий, поскольку государства, отрезанные от внешних источников, удваивают свои усилия по наращиванию национального потенциала. Необходимо продвигать политику, которая поможет сохранить централизованный контроль над вычислительными ресурсами и, таким образом, возможность ограничить эти ресурсы в будущем и не ускорить их распространение.
контроль над вооружением, искусственный интеллект в армии, искусственный интеллект на поле боя Fullscreen
Вашингтону необходимо ввести экспортный контроль и требования кибербезопасности для уже подготовленных моделей
Фото: Скрин видео
  • В-пятых, Вашингтону необходимо ввести экспортный контроль и требования кибербезопасности для уже подготовленных моделей. Контроль за экспортом высокотехнологичных чипов не будет эффективным в ограничении доступа к высокотехнологичным возможностям ИИ, если обученные модели будут подвержены утечке или кражам. Для того чтобы управление вычислениями было эффективным, экспортный контроль на высокопроизводительные чипы необходимо дополнить экспортным контролем на определенные виды обученных моделей. Обученные модели могут иметь приложения, имеющие отношение к безопасности, по своему замыслу или в качестве возникающего свойства больших моделей двойного назначения. Экспортный контроль требуется для моделей, подготовленных для определенных приложений, таких как кибербезопасность или генерация новых химических соединений, из-за возможности их нецелевого использования, а также для любых моделей, превышающих определенный порог вычислений, из-за их двойного назначения. Аналогичным образом, американские компании, проводящие крупномасштабные тренировки, должны быть обязаны соблюдать строгие гарантии кибербезопасности, чтобы их модели не были украдены злоумышленниками.
  • Наконец, комплексная стратегия должна регулировать использование крупномасштабных вычислений. Чтобы обеспечить эффективность контроля над чипами передового ИИ и обученными моделями, правительству США необходимо принять внутренний режим регулирования для контроля использования больших объемов вычислений. В противном случае запрещенные субъекты могут просто получить доступ к крупным вычислительным ресурсам для обучения моделей через облачных провайдеров. Регулирование использования вычислительных ресурсов должно распространяться на крупномасштабные тренировки и использование облачных вычислительных центров ИИ. Правила должны, как минимум, требовать предоставления отчетности американским регуляторам о масштабных тренировках и стандартов кибербезопасности для тренировок, превышающих определенный порог вычислений. Они также должны требовать, чтобы поставщики облачных вычислений гарантировали, что их услуги не используются запрещенными субъектами.

Технологии ИИ будут продолжать быстро развиваться, и те, кто работает над инициативами по контролю над вооружениями, должны сохранять бдительность и готовность переключить свое внимание на различные аспекты технологий ИИ или различные военные возможности с использованием ИИ, если возникнет такая необходимость. Ведение статистики для отслеживания прогресса и распространения ИИ будет полезно для оценки возможностей контроля над вооружениями, а также потенциальных будущих проблем.

В настоящее время неясно, как военные будут внедрять ИИ, как эта технология может повлиять на ведение войны и какие формы контроля над вооружениями государства могут считать желательными и возможными. Однако есть действия, которые политики могут предпринять уже сегодня, чтобы заложить основу для мер контроля над вооружениями в будущем, включая не только формирование эволюции технологии, но и политического климата. Даже небольшие шаги, предпринятые сейчас, принесут большие результаты в будущем. Государства должны использовать эти возможности, чтобы снизить риски военного использования искусственного интеллекта.

Об авторах

Меган Ламберт — бывший младший научный сотрудник программы "Технологии и национальная безопасность" в Центре новой американской безопасности.

Пол Шарре — вице-президент и директор по исследованиям Центра за новую американскую безопасность, автор книги Four Battlegrounds: Power in the Age of Artificial Intelligence.