Microsoft: хакеры российской разведки используют ChatGPT и другие ИИ для улучшения атак
Хакеры российской военной разведки используют искусственный интеллект для улучшения кибератак. Также они применяют ИИ для изучения технологий.
Хакерская группа, связанная с российской разведкой, использует большие языковые модели искусственного интеллекта (LLM), такие как ChatGPT и Copilot, для изучения сложных систем и улучшения эффективности кибератак. Об этом говорится в расследовании Microsoft и OpenAI по злонамеренному использованию ИИ. Их исследование также рассказывает о северокорейских, иранских, китайских и других хакерах.
Короткая выдержка из огромного расследования рассказывает о характере использования ИИ российскими военными хакерами из группы Forest Blizzard (Strontium). Это группировка российской военной разведки, связанная с подразделением 26165 ГРУ, которое занималось нападениями на жертв, представляющих тактический или стратегический интерес для российского правительства. Их деятельность охватывает различные секторы, включая оборону, транспорт/логистику, правительство, энергетику, неправительственные организации и информационные технологии. Forest Blizzard было чрезвычайно активной группой в нападениях на организации, связанные с войной России в Украине.
Microsoft считает, что операции Forest Blizzard играют значительную вспомогательную роль во внешней политике и военных целях России как в Украине, так и в целом. Forest Blizzard ассоциируется с угрозой, которую другие исследователи отслеживали как APT28 и Fancy Bear.
Использование LLM группой Forest Blizzard предусматривало исследование различных спутниковых и радиолокационных технологий, которые могут касаться военных операций в Украине, а также общие исследования, направленные на поддержку киберопераций.
Microsoft наблюдала активность Forest Blizzard в использовании новых технологий и отключала все доступные учетные записи и активности, связанные с Forest Blizzard.
В целом Microsoft оценивает уровень использования ИИ в кибератаках ограниченным, но кроме анализа данных и улучшения кибершпионских методов, компания акцентирует на опасности других методов, которые доступны благодаря искусственному интеллекту — таких, как имитация голоса. Компания обращает внимание, что даже 3 секундный образец голоса можно использовать для имитации воспроизведения любого содержания. Напомним, недавно злоумышленники с помощью ИИ похитили 25 млн долларов.