В ЕС бьют тревогу: эксперты узнали, как искусственный интеллект может повлиять на выборы
По словам специалистов ENISA, европейцы готовятся принять Закон об ИИ, но до сих пор неясно, как бороться с генеративными моделями и дипфейками.
Агентство Евросоюза по кибербезопасности ENISA (ETL) предупредило, что новые мощные модели искусственного интеллекта (ИИ) могут стать разрушительным фактором на выборах в ЕС в июне 2024 года. Об этом 19 октября сообщает общеевропейская новостная платформа Euractiv.
"Доверие к избирательному процессу ЕС будет критически зависеть от нашей способности полагаться на кибербезопасные инфраструктуры, а также от целостности и доступности информации. Теперь от нас зависит, предпримем ли мы необходимые действия для достижения этой чувствительной, но важной цели для наших демократий", — заявил исполнительный директор ENISA Юхан Лепассаар.
Как отмечают специалисты, модели искусственного интеллекта особенно актуальны для так называемой социальной инженерии, то есть психологических манипуляций. Это происходит благодаря способности ИИ создавать текст, якобы написанный человеком, или достоверно выглядящие изображения и видео, заменяющие сходство одного человека другим — дипфейки.
В отчете ENISA отмечается, пишет портал, что с момента публичного выпуска ChatGPT (практически с ноября 2022 года. — Ред.) искусственный интеллект стал основным драйвером инноваций в имитации текстов как законных источников, клонировании голосов и интеллектуальном анализе данных с помощью ИИ.
"Таким образом злоумышленники могут использовать их для проведения крупномасштабных кампаний по манипулированию информацией", — подчеркивает агентство.
Чат-боты на базе искусственного интеллекта, такие как ChatGPT от OpenAI и Bard от Google, по мнению экспертов издания, также могут подвергаться манипуляциям с наборами данных, например, чтобы испортить имидж бизнес- или политическому конкуренту.
В начале весны этого года Euractiv сообщил, что другое агентство ЕС — Европол, отвечающее за правоохранительную деятельность, указало на потенциальное преступное использование генеративных систем искусственного интеллекта, таких как ChatGPT, для онлайн-мошенничества и других киберпреступлений.
"Тенденция предполагает, что генеративный ИИ предоставляет возможность субъектам угроз создавать сложные и целенаправленные атаки с высокой скоростью и масштабом. Мы ожидаем более целенаправленных атак социальной инженерии с использованием технологий на основе ИИ в будущем", — заключило ENISA.
Тем временем в ЕС завершается работа над Законом об искусственном интеллекте — первым в мире всеобъемлющим постановлением в этой сфере. Однако то, как бороться с генеративным искусственным интеллектом и дипфейками, все еще остается открытой дискуссией, подчеркивает Euractiv.
"Планета угроз 2023 года" — что известно
Сегодняшнее предупреждение агентства ENISA является частью их ежегодного отчета о состоянии поля угроз кибербезопасности под названием "Планета угроз". В центре внимания этого отчета специалисты агентства видят возможные сбои, связанные с чат-ботами с ИИ, такими как знаменитый ChatGPT, и любые формы манипулирования информацией с помощью искусственного интеллекта.
При этом, как замечает Euractiv, новые модели искусственного интеллекта, для которых характерна повышенная мощность, могут быть использованы для срыва избирательных процессов не только в Европе.
"В связи с приближением выборов в США и Великобритании эксперты предупреждают о риске того, что изображения или видео, созданные ИИ, станут вирусными, а также о пропагандистских ботах, работающих на базе ИИ", — напоминает портал о статье в Guardian.
Ранее Фокус писал, что Госдепартамент США разработал декларацию об ответственном военном использовании ИИ. Американские политики опасаются, что внедрение таких технологий могут привести к гибели всего человечества, а вот Россия, Китай, США и Израиль пока не очень хотят ограничивать их применение в системах вооружения.
Также Фокус информировал, что искусственный интеллект научился планировать биологические атаки.
Ранее Фокус рассказывал, что ученые собираются превратить ИИ в гурмана и сомелье. Без чувства вкуса ИИ не может понять людей, утверждают специалисты, а значит нужно научить искусственный интеллект ощущать все эмоции человека от еды.