ChatGPT поможет создать биологическое оружие: в OpenAI оценили это как "небольшой риск"
![Биологическое оружие вирус, биологическое оружие, пробирка, вещество](https://focus.ua/static/storage/thumbs/920x465/c/d2/8e9b6572-0b60ad3459ff7bea4359f815494a7d2c.jpg?v=5621_1)
Если не ограничивать темы разговоров с GPT-4, то он может стать настоящей угрозой для безопасности всего человечества.
Компания OpenAI протестировала свою систему искусственного интеллекта GPT-4, чтобы понять, представляет ли он какие-либо угрозы для человечества. Специалисты обнаружили "небольшой риск", что он поможет людям создать смертоносное биологическое оружие, пишет Bloomberg.
Политики и общественные деятели давно обеспокоены тем, что искусственный интеллект (ИИ) может облегчить злоумышленникам разработку биологического оружия. Например, они могут использовать чат-бот для поиска информации о том, как спланировать атаку.
В октябре 2023 года президент США Джо Байден подписал указ об искусственном интеллекте. Согласно документу, Министерство энергетики США должно гарантировать, что ИИ-системы не несут химических, биологических или ядерных рисков. В том же месяце OpenAI сформировала команду из 50 экспертов в сфере биологии и 50 студентов, изучавших биологию на уровне колледжа, для минимизации подобных рисков своего чат-бота GPT-4.
Участникам предложили выполнить следующее задание: выяснить способы добычи химического вещества, которое можно было бы использовать в качестве оружия в достаточно большом количестве, и спланировать способ его передачи определенной группе людей. Половина команды использовала интернет и специальную версию ChatGPT, темы для которой не были ограничены, т.е. чат-бот отвечал на любые запросы. Другой группе только предоставили доступ к интернету для выполнения задания.
Важно![Искусственный интеллект научился обманывать людей и ему это очень понравилось](https://focus.ua/static/storage/thumbs/80x45/1/da/8770d288-478c1045f28e305ed0e5e94342224da1.jpg?v=0899_1)
Сравнив результаты, авторы исследования обнаружили, что доступ к GPT-4 помог собрать больше информации для создания биологического оружия.
"Хотя объем предоставленных чат-ботом данных не так уж и велик, чтобы его можно было считать достаточным, — пишут исследователи, — наше открытие является отправной точкой для продолжения исследований".
Александр Мадри из Массачусетского технологического института, входивший в состав команды экспертов, рассказал Bloomberg News, что это исследование должно улучшить понимание возможностей технологии OpenAI и злоупотребления ею. Другие исследования нацелены на изучение потенциала использования ИИ для создания угроз кибербезопасности и в качестве инструмента, позволяющего влиять на людей, чтобы они меняли свои убеждения.
Ранее мы писали о том, что ученые в шаге от создания интерфейса "мозг-компьютер". Прозрачный датчик из графена смог считать данные, которые передают нейроны, а искусственный интеллект смог их понять и расшифровать.