Разделы
Материалы

Восстания машин не будет: ИИ хотят загнать в жесткие рамки, чтобы избежать проблем

Филипп Бойко
Фото: Иллюстративное фото | Евросоюз решил жестко ограничить использование ИИ

Несмотря на то что регулирование нейросетей крайне необходимо, — проблемы уже начались.

В ЕС прислушались к голосу мирового научного сообщества и раньше, чем в США написали закон, регулирующий применение искусственного интеллекта. Впрочем, этот закон будет еще обсуждаться и дополняться целый год до момента принятия, а пока есть время подумать над тем, насколько он отображает сегодняшние реалии. Быть может, уже поздно что-то менять и наступила ИИ-анархия?

Как в ЕС намерены урегулировать развитие ИИ

В законе предлагается разделить инструменты ИИ на "четыре зоны риска": минимальный, ограниченный, высокий и неприемлемый. Например, антивирусные решения или спам-фильтры на основе нейросетей, конечно же, попадают под категорию "минимального риска" и для их работы нет ограничений.

А вот генеративные сети (создающие фото, видео и звук) являются инструментами "среднего риска". В законе предлагается компаниям-разработчикам четко маркировать такой контент соответствующей пометкой, чтобы любой человек мог сразу понять, что перед ним не настоящее фото. Видимо, в ЕС поняли, насколько опасны фейковые фото "Папы Римского в модной куртке" или "ареста Дональда Трампа", сгенерированные с помощью Midjourney.

Нашумевший фотофейк с Папой Римский в белой модной куртке
Фото: Соцести

Но вот тут как раз законодатели опоздали. Конечно, известные компании типа Adobe, Microsoft или тот же Midjourney и так помечают творения своих нейросетей соответствующим знаком и даже ввели запрет на генерацию фото известных личностей и провоцирующих запросов на тему насилия, наркотиков и т.д. А вот что делать с альтернативными нейросетями? Например, Stable Diffusion может создавать изображения реальных людей. И таких "фейков" становится все больше и больше, причем среди них есть проекты с открытым исходным кодом, так что любой программист может их развивать дальше.

Скорее всего, этот пункт закона введен сугубо для местных ИТ-компаний, ведь никто не может запретить генерировать провоцирующие политические фотофейки или даже дипфейки гражданам России или Китая, а инструменты для этого уже есть.

Китай давно внедрил систему слежки за гражданами и "социальный рейтинг"
Фото: Соцсети

Государства этих стран уже считают ИИ одним из главных столпов поддержки политических режимов. В Китае работает система "социального рейтинга" благонадежности граждан, а Россия активно использует нейросети для поиска оппозиции и мониторинга критики Путина в соцсетях. И вообще, согласно репозиторию инцидентов с ИИ, их количество увеличилось в 26 раз по сравнению с предыдущими годами.

Мало того, инструментарий для создания видео и голосовых дипфейков уже доступен широкому кругу пользователей, и хотя пока что в ЕС подобные генеративные инструменты подпадают под "среднюю угрозу", мы более чем уверены, что к моменту голосования этого закона они будут отнесены в раздел "высокого риска". Достаточно вспомнить, как еще менее полугода назад генерировал картинки тот же Midjourney, и что он умеет сейчас.

Вот как менялись возможности Midjourney от версии к версии
Фото: Соцсети

Какие сферы деятельности закроют от ИИ

Впрочем, авторы законопроекта смогли предугадать более существенные проблемы, которым грозит неконтролируемая интеграция нейросетей в важные аспекты человеческой жизни. Например, в законопроекте прописан запрет на использования ИИ в судебном производстве (оценка или анализ с помощью сетей доказательной базы).

Так же нельзя использовать нейросети для оценки кандидатов на работу (обрабатывать резюме). И вот здесь Евросоюз бьет на опережение, поскольку, согласно исследованиям, 49% респондентов опасаются потерять работу из-за внедрения ИИ. Причем больше всего эти опасения возникают у представителей так называемого "офисного планктона", чем у рабочего класса, хотя и им есть о чем задуматься – роботизация предприятий продвигается не менее активно, чем внедрение инструментов ИИ.

В законопроекты также прописаны полезнее нормы о том, что ИИ запрещается разделять людей по расам и национальностям. Под запрет попадают системы распознавания эмоций. Этот запрет действует для правоохранителей, чтобы они не могли использовать инструменты на основе ИИ для анализа мимики человека и его психологического настроения. Это может грозить неправильными выводами о виновности или невиновности подозреваемого.

Правоохранителям будет запрещено отслеживать эмоции с помощью ИИ
Фото: Thea Traff

А что будут делать организаторы Олимпиады 2024 во Франции? Если закон примут к этому времени, им будет запрещено использовать нейросети для контроля за толпами болельщиков. Местные правоохранители собираются использоваться нейросети для сбора и анализа "подозрительной или ненормальной" активности в толпе.

Один из самых спорных моментов – запрет на сбор и анализ биометрических данных из соцсетей и с камер наблюдения, по которым потом можно было бы распознавать граждан. Хотя для правоохранителей в отдельных случаях сделали исключение – например, предотвращение терактов, серьезных преступлений или поиск пропавших людей, однако все равно придется получать в каждом конкретном случае разрешение судьи, что влечет за собой бумажную волокиту.

Сбор биометрических данных с помощью камер наблюдения так же будет под запретом в ЕС
Фото: Getty

Опять же, у недоверчивых граждан и прочих любителей теорий заговора вполне возникает резонный вопрос: кто мешает использовать все эти чудесные наработки спецслужбам? Вряд ли закон коснется органов национальной безопасности.

Кстати, в этом случае Украина, которая стремится попасть в ЕС, находится под ударом. Мы уже рассказывали, что ВСУ и разведка активно используют программу компании Clearview AI для опознания и распознания личностей оккупантов по лицам. Видимо, если закон вступит в силу, в будущем придется от нее отказаться, хотя в планах у Минцифры дальнейшее активное сотрудничество с данной компанией.

Безусловно, очень хорошо, что в законопроекте прописаны четкие рамки на использование нейросетей в медицине. Такие системы должны будут "досконально изучены и протестированы в аспекте надежности и безошибочности".

О чем забыли в законопроекте "про ИИ"

Конечно, социальные вопросы, касающиеся правосудия, медицины, персональных данных и трудоустройства – это замечательно, но пока что нет ни одного пункта, касающегося использования ИИ в военных системах или влияния нейросетей на экологию. А ведь уже известно, что тот же Пентагон активно работает над военными технологиями с использованием искусственного интеллекта. Пока, в основном, речь идет о системах управления и отслеживания ракет, но появляются новости о роботизированных системах и даже истребитель F-16 в качестве эксперимента целых 17 часов управлялся ИИ.

Развитие и использование ИИ загрязняет природу больше, чем автомобили
Фото: Stanford University

Проблема для экологии, которую создает развитие нейросетей, так же не стоит сбрасывать со счетов. Ведь по подсчетам ученых, обучение и функционирование нейросетей требует огромных энергетических и ресурсных затрат. Согласно исследованию, средний ЦОД использует около 3,8 л воды на каждый киловатт-час энергии. При этом каждый запрос человека к тому же ChatGPT временно забирает у природы литровую бутылку воды.

С возрастающим развитием нейросетей компаниям придется применить все способы, чтобы максимально снизить давление на природу, ведь до сих пор множество ЦОД, на серверах которых "крутится" ИИ потребляют энергию электростанций работающих на газу и угле. Это никак не способствует стремлениям ЕС по переходу на систему нулевых выбросов.