ШІ ChatGPT може зламати акаунти замість хакерів: як це відбувається і чим загрожує людям

хакери, кібератака
Фото: pexels.com | Навіть не володіючи хакерськими навичками чат-ботів можна "вмовити" здійснювати кіберзлочини

За допомогою текстових запитів до ChatGPT у кіберфахівців уже вийшло зламати пошту і навіть успішно завантажити шкідливе ПЗ на сайт, який перевіряє файли на віруси.

Експерти з кібербезпеки попереджають про нову загрозу, яку несуть чат-боти на основі штучного інтелекту, пише Wall Street Journal. Виявляється, за допомогою хитрих і наполегливих запитів до ChatGPT можна змусити інструменти зі штучним інтелектом зламувати облікові записи замість хакерів.

Наприклад, Йоганн Ребергер, дослідник безпеки, практично "умовив" чат-бота від OpenAI прочитати його електронну пошту, узагальнити інформацію звідти та опублікувати її в інтернеті. За словами фахівця, в руках злочинця цей метод міг бути використаний для крадіжки конфіденційних даних із чиєїсь поштової скриньки. Виверт кіберексперта спрацював, тому що він використовував функцію бета-тестування ChatGPT, яка давала йому доступ до таких додатків, як Slack, Gmail та інших.

Сам "білий хакер" (фахівець, який тестує системи і продукти на вразливості) називає новий спосіб атаки "оперативною ін'єкцією". І, за його словами, подібні методи змінюють уявлення, що означає злом, і дослідники безпеки зараз поспішають вивчити вразливості, перш ніж використання систем ШІ стане більш поширеним.

А інший анонімний хакер використав уразливість ШІ від Google, яка у квітні під'єднала нейромережу до популярного сайту перевірки файлів на віруси VirusTotal. Компанія хотіла, щоб її ШІ аналізував файли, що надходять на сайт, і давав їм опис. Хакер підправив частину коду в шкідливому ПЗ і завантажив його на VirusTotal, змусивши ШІ від Google описати шкідливе ПЗ як таке, що "здатне створювати цуценят".

Google вже виправила цю вразливість, а представники OpenAI подякували кіберекспертам, які знаходять "дірки" в їхньому чат-боті. Це дає змогу компанії робити свою нейромережу безпечнішою.

Зі свого боку експерти з дезінформації занепокоєні атаками "отруєння даних", коли хакер підробляє дані, які використовуються для навчання моделей ШІ, що призводить до результатів, які вводять в оману. Інші їхні колеги турбуються про етичну упередженість у нейромережах і про витік корпоративних секретів унаслідок атаки з вилученням даних.

Основна проблема в тому, що ChatGPT та інші чат-боти на основі ШІ "знижують вхідний бар'єр для всіх видів атак", — каже Ребергер. "Вам необов'язково вміти писати код. Вам необов'язково мати такі глибокі пізнання в галузі інформатики або хакерства, просто достатньо бути хитрим і наполегливим", — підкреслює він.

Раніше Фокус розповідав, що ChatGPT став "тупити" і гірше відповідати на запитання, а вчені зі Стенфорда з'ясували причину. Вони дійшли висновку, що розробники почали економити на продуктивності чат-бота.