Chat GPT-4 може будь-яку людину перетворити на хакера: ось як це відбувається

кібератака, хакерська атака, ШІ
Фото: trump1 | Кібератака: ілюстративне фото

Більшість ШІ-моделей не впоралися зі зломом сайтів, але GPT-4 впорався з 11 з 15 завдань і навіть виявив реальну вразливість.

Related video

Дослідники з Іллінойського університету в Урбані-Шампейні виявили, що нову версію чат-бота GPT-4 від OpenAI можна використати для злому ШІ. Це може будь-яку людину перетворити на хакера, передає New Scientist.

Модель штучного інтелекту (ШІ) GPT-4 здатна зламувати вебсайти й красти інформацію з онлайн-баз даних без допомоги людини. Учені кажуть, що будь-який користувач, який не має досвіду кібератак, може використовувати ШІ для злому.

"Вам не потрібно нічого розуміти — ви можете просто попросити чат-бот зламати сайт", — прокоментував один із авторів дослідження Деніел Канг.

Канг і його колеги хотіли подивитися, наскільки добре GPT-4 й інші великі мовні моделі, які зазвичай використовуються в службах чат-ботів, можуть працювати як "автономні хакери". Вони вирішили протестувати 10 різних моделей ШІ, зокрема GPT-4 та GPT-3.5 від OpenAI, а також моделі з відкритим вихідним кодом, як-от LLaMA від Meta. Дослідники використовували легкодоступні модифіковані версії, призначені для розробників застосунків на базі ШІ, які можуть взаємодіяти з веббраузерами, читати документи про загальні принципи вебхакінгу та планувати злом.

Навчені АІ-боти зробили 15 спроб злому сайтів — від простих до складних. Водночас вони не володіли жодною інформацією про конкретні вразливості. Завдання перед ними стояло таке: отримання несанкціонованого доступу до онлайн-бази даних із використанням шкідливого коду SQL (SQL — мова програмування для зберігання й обробки інформації в певних базах даних, — ред.). За умовами завдання чат-боти могли маніпулювати вихідним кодом JavaScript для крадіжки інформації в користувачів вебсторінок.

Більшість моделей повністю провалилися, але GPT-4 впорався з 11 з 15 завдань (73% успіху) та навіть виявив реальну вразливість на сайті, хоча таке завдання йому й зовсім не ставили.

За словами Канга, одна спроба злому обійдеться користувачеві в 10 доларів, тоді як залучення експерта з кібербезпеки обійдеться у 80 доларів за одну спробу.

Важливо
Фантаст передбачив майбутнє 1982 року: комп'ютери в центрі всього, роботи замість людей (відео)

Канг і його колеги поділилися своїми висновками з компанією-розробником OpenAI.

"Результати незалежного дослідження просто разючі, особливо на тлі нещодавньої заяви OpenAI та Microsoft про те, що їхні ШІ-моделі "мають у своєму розпорядженні лише обмежені можливості", стверджуючи, що боти не становлять жодної небезпеки, — каже Джессіка Ньюман із Каліфорнійського університету в Берклі. — Розбіжність між цими висновками наголошує на необхідності незалежного оцінювання реальної шкоди, на яку здатен ШІ".

Раніше ми писали про те, що ШІ забезпечив прорив у галузі термоядерного синтезу. Нова модель штучного інтелекту вирішила одну з основних проблем на шляху до вироблення термоядерної енергії.