Передовые государства способны создавать кибероружие, которое обойдет любую защиту: чем это грозит

Кибербезопасность ИИ
Фото: Image Creator from Microsoft Bing | Творчество ИИ по теме "государственный кибершпионаж"

Зловредное программное обеспечение, созданное искусственным интеллектом, позволит проводить быстрые и незаметные кибероперации, поражая компьютеры и другие гаджеты жертв.

Из-за обучения искусственного интеллекта на больших базах данных технологически продвинутые государства уже могут создать обход имеющихся средств киберзащиты. Об этом предупреждает Национальный центр кибербезопасности Великобритании (NCSC).

Чтобы создавать такое мощное программное обеспечение, субъектам угроз нужно обучить модель ИИ, используя качественные базы эксплойтов, вредоносных компьютерных программ, фрагментов кодов или последовательностей команд, использующих уязвимости систем. Полученная система создаст новый код, который обойдет текущие меры безопасности.

Важно
Искусственный интеллект и ядерная стабильность: как обезопасить системы "мертвой руки"
Искусственный интеллект и ядерная стабильность: как обезопасить системы "мертвой руки"

"Существует реалистичная вероятность того, что высокотехнологичные государства имеют базы вредоносных программ, которые являются достаточно большими, чтобы эффективно обучить модель искусственного интеллекта для этой цели", — предупредил NCSC.

Это предупреждение было лишь частью серии тревожных сигналов, о которых NCSC упоминало в своем отчете. Агентство ожидает, что искусственный интеллект усилит глобальную угрозу программ-вымогателей, улучшит поиск и отслеживание жертв и снизит барьер для проникновения киберпреступников.

Генеративный ИИ также усиливает угрозы в области социальной инженерии, таких как убедительные взаимодействия с жертвами и создание соблазнительных документов. ИИ усложнит обнаружение фишинга, спуфинга и злонамеренных запросов по электронной почте или сброса пароля. Благодаря этому национальные государства получат мощнейшее оружие.

"Очень способные государственные субъекты почти наверняка имеют наибольший потенциал как источники киберугроз, чтобы использовать потенциал искусственного интеллекта в расширенных кибероперациях".

Однако в ближайшей перспективе ожидается, что искусственный интеллект усилит существующие угрозы, а не создаст качественно новые риски. Эксперты особенно обеспокоены тем, что это усилит глобальную угрозу программ-вымогателей.

"Программы-вымогатели продолжают представлять угрозу национальной безопасности", — говорит Джеймс Бэббидж, генеральный директор агентства.

Более продвинутые варианты атак вряд ли будут реализованы до 2025 года, но после системы искусственного интеллекта улучшатся, считают исследователи. Благодаря этому начнутся успешные кражи данных, станут возможными более быстрые и точные кибероперации.

Даже существующие системы ИИ способны спровоцировать опасность из-за их стойкой склонности к обману, о которой писал Фокус.