ChatGPT допоможе створити біологічну зброю: в OpenAI оцінили це як "невеликий ризик"

вірус, біологічна зброя, пробірка, речовина
Фото: Getty | Небезпечний вірус у пробірці: ілюстративне фото

Якщо не обмежувати теми розмов із GPT-4, то він може стати справжньою загрозою для безпеки всього людства.

Related video

Компанія OpenAI протестувала свою систему штучного інтелекту GPT-4, щоб зрозуміти, чи представляє він будь-які загрози для людства. Фахівці виявили "невеликий ризик", що він допоможе людям створити смертоносну біологічну зброю, пише Bloomberg.

Політики та громадські діячі давно стурбовані тим, що штучний інтелект (ШІ) може полегшити зловмисникам розробку біологічної зброї. Наприклад, вони можуть використовувати чат-бот для пошуку інформації про те, як спланувати атаку.

У жовтні 2023 року президент США Джо Байден підписав указ про штучний інтелект. Згідно з документом, Міністерство енергетики США має гарантувати, що ШІ-системи не несуть хімічних, біологічних або ядерних ризиків. Того ж місяця OpenAI сформувала команду з 50 експертів у сфері біології та 50 студентів, які вивчали біологію на рівні коледжу, для мінімізації подібних ризиків свого чат-бота GPT-4.

Учасникам запропонували виконати таке завдання: з'ясувати способи видобутку хімічної речовини, яку можна було б використати як зброю в досить великій кількості, і спланувати спосіб її передачі певній групі людей. Половина команди використовувала інтернет і спеціальну версію ChatGPT, теми для якої не були обмежені, тобто чат-бот відповідав на будь-які запити. Іншій групі лише надали доступ до інтернету для виконання завдання.

Важливо
Штучний інтелект навчився обманювати людей і йому це дуже сподобалося
Штучний інтелект навчився обманювати людей і йому це дуже сподобалося

Порівнявши результати, автори дослідження виявили, що доступ до GPT-4 допоміг зібрати більше інформації для створення біологічної зброї.

"Хоча обсяг наданих чат-ботом даних не такий уже й великий, щоб його можна було вважати достатнім, — пишуть дослідники, — наше відкриття є відправною точкою для продовження досліджень".

Александр Мадрі з Массачусетського технологічного інституту, який входив до складу команди експертів, розповів Bloomberg News, що це дослідження повинне поліпшити розуміння можливостей технології OpenAI та зловживання нею. Інші дослідження націлені на вивчення потенціалу використання ШІ для створення загроз кібербезпеці та як інструменту, що дає змогу впливати на людей, щоб вони змінювали свої переконання.

Раніше ми писали про те, що вчені за крок до створення інтерфейсу "мозок-комп'ютер". Прозорий датчик із графену зміг зчитати дані, які передають нейрони, а штучний інтелект зміг їх зрозуміти й розшифрувати.