Разделы
Материалы

ChatGPT поможет создать биологическое оружие: в OpenAI оценили это как "небольшой риск"

Ирина Рефаги
Фото: Getty | Опасный вирус в пробирке: иллюстративное фото

Если не ограничивать темы разговоров с GPT-4, то он может стать настоящей угрозой для безопасности всего человечества.

Компания OpenAI протестировала свою систему искусственного интеллекта GPT-4, чтобы понять, представляет ли он какие-либо угрозы для человечества. Специалисты обнаружили "небольшой риск", что он поможет людям создать смертоносное биологическое оружие, пишет Bloomberg.

Политики и общественные деятели давно обеспокоены тем, что искусственный интеллект (ИИ) может облегчить злоумышленникам разработку биологического оружия. Например, они могут использовать чат-бот для поиска информации о том, как спланировать атаку.

В октябре 2023 года президент США Джо Байден подписал указ об искусственном интеллекте. Согласно документу, Министерство энергетики США должно гарантировать, что ИИ-системы не несут химических, биологических или ядерных рисков. В том же месяце OpenAI сформировала команду из 50 экспертов в сфере биологии и 50 студентов, изучавших биологию на уровне колледжа, для минимизации подобных рисков своего чат-бота GPT-4.

Участникам предложили выполнить следующее задание: выяснить способы добычи химического вещества, которое можно было бы использовать в качестве оружия в достаточно большом количестве, и спланировать способ его передачи определенной группе людей. Половина команды использовала интернет и специальную версию ChatGPT, темы для которой не были ограничены, т.е. чат-бот отвечал на любые запросы. Другой группе только предоставили доступ к интернету для выполнения задания.

Сравнив результаты, авторы исследования обнаружили, что доступ к GPT-4 помог собрать больше информации для создания биологического оружия.

"Хотя объем предоставленных чат-ботом данных не так уж и велик, чтобы его можно было считать достаточным, — пишут исследователи, — наше открытие является отправной точкой для продолжения исследований".

Александр Мадри из Массачусетского технологического института, входивший в состав команды экспертов, рассказал Bloomberg News, что это исследование должно улучшить понимание возможностей технологии OpenAI и злоупотребления ею. Другие исследования нацелены на изучение потенциала использования ИИ для создания угроз кибербезопасности и в качестве инструмента, позволяющего влиять на людей, чтобы они меняли свои убеждения.

Ранее мы писали о том, что ученые в шаге от создания интерфейса "мозг-компьютер". Прозрачный датчик из графена смог считать данные, которые передают нейроны, а искусственный интеллект смог их понять и расшифровать.