ИИ ChatGPT может взломать аккаунты вместо хакеров: как это происходит и чем грозит людям
С помощью текстовых запросов к ChatGPT у киберспециалистов уже получилось взломать почту и даже успешно загрузить вредоносное ПО на сайт, который проверяет файлы на вирусы.
Эксперты по кибербезопасности предупреждают о новой угрозе, которую несут чат-боты на основе искусственного интеллекта, пишет Wall Street Journal. Оказывается, с помощью хитрых и настойчивых запросов к ChatGPT можно заставить инструменты с искусственным интеллектом взламывать учетные записи вместо хакеров.
Например, Иоганн Ребергер, исследователь безопасности, практически "уговорил" чат-бота от OpenAI прочитать его электронную почту, обобщить информацию оттуда и опубликовать ее в интернете. По словам специалиста, в руках преступника этот метод мог быть использован для кражи конфиденциальных данных из чьего-либо почтового ящика. Уловка киберэксперта сработала, потому что он использовал функцию бета-тестирования ChatGPT, которая давала ему доступ к таким приложениям, как Slack, Gmail и другим.
Сам "белый хакер" (специалист, который тестирует системы и продукты на уязвимости) называет новый способ атаки "оперативной инъекцией". И по его словам подобные методы меняют представление, что означает взлом, и исследователи безопасности сейчас спешат изучить уязвимости, прежде чем использование систем ИИ станет более распространенным.
А другой анонимный хакер использовал уязвимость ИИ от Google, которая в апреле подключила нейросеть к популярному сайту проверки файлов на вирусы VirusTotal. Компания хотела, чтобы ее ИИ анализировал поступающие на сайт файлы и давал им описание. Хакер подправил часть кода в зловредном ПО и загрузил его на VirusTotal, заставив ИИ от Google описать вредоносное ПО как "способное создавать щенков".
Google уже исправила эту уязвимость, а представители OpenAI поблагодарили киберэкспертов, которые находят "дыры" в их чат-боте. Это позволяет компании делать свою нейросеть более безопасной.
В свою очередь эксперты по дезинформации обеспокоены атаками "отравления данных", когда хакер подделывает данные, используемые для обучения моделей ИИ, что приводит к вводящим в заблуждение результатам. Другие их коллеги беспокоятся об этической предвзятости в нейросетях и об утечке корпоративных секретов в результате атаки с извлечением данных.
Основная проблема в том, что ChatGPT и другие чат-боты на основе ИИ "снижают входной барьер для всех видов атак", — говорит Ребергер. "Вам необязательно уметь писать код. Вам необязательно иметь такие глубокие познания в области информатики или хакерства, просто достаточно быть хитрым и настойчивым", — подчеркивает он.
Ранее Фокус рассказывал, что ChatGPT стал "тупить" и хуже отвечать на вопросы, а ученые из Стэнфорда выяснили причину. Они пришли к выводу, что разработчики начали экономить на производительности чат-бота.