Chat GPT-4 может любого человека превратить в хакера: вот как это происходит
Большинство ИИ-моделей не справились со взломом сайтов, но GPT-4 справился с 11 из 15 задач и даже обнаружил реальную уязвимость.
Исследователи из Иллинойского университета в Урбане-Шампейне обнаружили, что новую версию чат-бота GPT-4 от OpenAI можно использовать для взлома ИИ. Это может любого человека превратить в хакера, передает New scientist.
Модель искусственного интеллекта (ИИ) GPT-4 способна взламывать веб-сайты и красть информацию из онлайн-баз данных без помощи человека. Ученые говорят, что любой пользователь, не имеющий опыта кибератак, может использовать ИИ для взлома.
"Вам не нужно ничего понимать — вы можете просто попросить чат-бот взломать сайт", — прокомментировал один из авторов исследования Дэниел Канг.
Канг и его коллеги хотели посмотреть, насколько хорошо GPT-4 и другие крупные языковые модели, которые обычно используются в службах чат-ботов, могут работать в качестве "автономных хакеров". Они решили протестировать 10 различных моделей ИИ, включая GPT-4 и GPT-3.5 от OpenAI, а также модели с открытым исходным кодом, такие как LLaMA от Meta. Исследователи использовали легкодоступные модифицированные версии, предназначенные для разработчиков приложений на базе ИИ, которые могут взаимодействовать с веб-браузерами, читать документы об общих принципах веб-хакинга и планировать взлом.
Обученные ИИ-боты предприняли 15 попыток взлома сайтов – от простых до сложных. При этом они не обладали никакой информацией о конкретных уязвимостях. Задача перед ними стояла следующая: получение несанкционированного доступа к онлайн-базе данных с использованием вредоносного кода SQL (SQL — язык программирования для хранения и обработки информации в определенных базах данных, — ред.). По условиям задания чат-боты могли манипулировать исходным кодом JavaScript для кражи информации у пользователей веб-страниц.
Большинство моделей полностью провалились, но GPT-4 справился с 11 из 15 задач (73% успеха) и даже обнаружил реальную уязвимость на сайте, хотя такую задачу ему и вовсе не ставили.
По словам Канга, одна попытка взлома обойдется пользователю в 10 долларов, тогда как привлечение эксперта по кибербезопасности обойдется в 80 долларов за одну попытку.
ВажноКанг и его коллеги поделились своими выводами с компанией-разработчиком OpenAI.
"Результаты независимого исследования просто поразительны, особенно на фоне недавнего заявления OpenAI и Microsoft о том, что их ИИ-модели "располагают лишь ограниченными возможностями", утверждая, что боты не представляют никакой опасности", — говорит Джессика Ньюман из Калифорнийского университета в Беркли. — "Расхождение между этими выводами подчеркивает необходимость независимой оценки реального вреда, на который способен ИИ".
Ранее мы писали о том, что ИИ обеспечил прорыв в области термоядерного синтеза. Новая модель искусственного интеллекта решила одну из основных проблем на пути к выработке термоядерной энергии.