Разделы
Материалы

ИИ-модели без цензуры: какую угрозу они представляют для глобальной безопасности и почему

Ольга Шевченко, Игаль Левин
ИИ-модели угрожают глобальной безопасности | Фото: Twitter

Модели ИИ без цензуры можно скачать всего за несколько кликов без какой-либо проверки, надзора или ответственности, гарантирующих, что они не используются с целью причинения вреда. Эксперты считають, что нецензурируемые модели действуют на преступных субъектов как катализаторы.

Об этом говорится в статье издания Аspistrategist "Неотцензурированные модели ИИ представляют серьезную угрозу глобальной безопасности", которую перевел Фокус.

Глобальная гонка ИИ набирает обороты, а государства и корпорации вкладывают миллиарды в ИИ для коммерческих, стратегических и оборонных целей. Однако побочным эффектом этой гонки становится распространение моделей ИИ без цензуры, которые представляют собой серьезную угрозу безопасности.

Система может ответить практически на любой запрос

Созданные на основе больших языковых моделей с открытым исходным кодом, такие системы лишены фильтров безопасности, которые есть у распространенных инструментов вроде ChatGPT. Такая система может ответить практически на любой запрос без колебаний и этических ограничений. Вам нужен учебник по написанию вредоносных программ? Интересуетесь, как сделать взрывчатку, оружие или наркотики? Модель без цензуры готова предоставить вам подробные инструкции.

Опасность заключается не только в том, что именно эти модели могут создавать, но и в том, насколько легко к ним получить доступ. Многие из них размещены на популярных платформах, где хранятся легальные инструменты и исследования и где ведутся передовые разработки в области ИИ, включая Hugging Face, GitHub и Ollama. Модели без цензуры можно скачать всего за несколько кликов. Простой поиск на таких платформах по фразе "без цензуры" позволяет обнаружить модели, которые были скачаны миллионы раз – без какой-либо проверки, надзора или ответственности, гарантирующих, что они не используются с целью причинения вреда.

Чат ChatGPT Фото: Business Insider
Фото: Business Insider

Нет ни корпоративного сервера, ни автоматизированного сбора данных

Возможность использования в автономном режиме крайне усложняет регулирование применения моделей без цензуры. После загрузки их можно запускать локально на обычных компьютерах без подключения к Интернету. Нет ни корпоративного сервера, ни автоматизированного сбора данных, и зачастую невозможно узнать, используется ли модель для академических исследований, преступной или экстремистской деятельности.

На самом деле запустить эти инструменты сейчас проще, чем когда-либо. С помощью платформ типа LM Studio даже далекие от мира технологий пользователи могут развернуть модель без цензуры за считанные минуты. Умение писать код для этого не требуется, а интерфейсы интуитивно понятны, как в любом обычном приложении. После запуска модель без цензуры становится практически невозможно контролировать.

ИИ-модели без цензуры угрожают глобальной безопасности
Фото: скриншот из Facebook

Для тех, кто предпочитает не запускать модели на своем компьютере, существуют сервисы, размещающие их в Интернете, часто под видом конфиденциальных платформ ИИ. Некоторые из них заявляют, что не ведут журналов запросов пользователей, принимают криптовалютные платежи и подчеркивают низкий уровень отказов отвечать на запросы. Эти показатели отказов преподносятся как преимущества, а не как меры предосторожности. Несмотря на то, что часто в рекламе этих сервисов говорится о "свободе творчества", их открытая реклама показывает, что нецензурируемый доступ превращается в товар, устраняя последний значимый барьер между злоумышленниками и мощными генеративными инструментами. Такие сервисы не являются чем-то недоступным – их легко найти с помощью простого поиска в Google.

ИИ снижает как стоимость, так и порог вредоносной деятельности

Нецензурируемые модели действуют на преступных субъектов как катализаторы. Раньше для создания вредоносных программ, проведения сложных экстремистских акций или операций влияния требовались продвинутые технические знания. Теперь эти возможности можно передать на аутсорсинг модели. При правильном подходе даже люди с минимальным опытом могут получить индивидуальное руководство по выполнению действий с серьезными последствиями.

Это ведет ко все большей асимметрии. Вредоносные субъекты, имеющие доступ к модели ИИ без цензуры, могут легко заменить работу группы экспертов. Таким образом, ИИ снижает как стоимость, так и порог вредоносной деятельности, что значительно расширяет спектр угроз, позволяя субъектам, ранее не обладавшим достаточными возможностями, проводить сложнейшие операции по нанесению ущерба.

Попытки исключить или удалить эти модели из публичных репозиториев во многом символические. Даже если оригинальные источники будут удалены, модели могут распространяться через торренты, частные форумы и альтернативные платформы. Джинна уже выпустили из бутылки.

Но это не значит, что компании и политики должны сдаться. Доступность этих моделей вызывает глубокую озабоченность. Поэтому следует сосредоточить все усилия на повышении барьеров для доступа к таким моделям с помощью политических мер, регулирования или общественных норм.

Государства и корпорации вкладывают миллиарды в ИИ для коммерческих, стратегических и оборонных целей Фото: Neil Mendoza Фото: Neil Mendoza
Фото: Neil Mendoza

Нецензурируемые модели уже представляют собой серьезную угрозу

Для устранения этой угрозы требуется новое мышление. Моделирование угроз должно адаптироваться к реальности, в которой доступные общественности модели ИИ могут быть практически бесследно использованы для расширения возможностей даже не самых искушенных субъектов, у которых теперь есть инструменты для проведения сложных операций с минимальными ресурсами.

Пока политики сосредоточены на регулировании корпоративных методов работы с данными, нецензурируемые модели уже представляют собой серьезную угрозу. Такие модели позволяют низкоквалифицированным игрокам наносить вред в масштабах, которые ранее были доступны лишь государствам и наиболее технически подкованным группам. Эти модели нельзя удалить, но можно ограничить доступ к ним. Наше определение угроз и планирование должны измениться, чтобы соответствовать этой новой реальности. Бездействие означает согласие с растущим риском для национальной и глобальной безопасности.

Об авторе

Том Сакстон – исследователь в области искусственного интеллекта и OSINT в Мельбурнском королевском технологическом институте.