Новий чат-бот OpenAI вчить людей красти в магазинах та робити вибухівку

робот, ШІ, штучний інтелект, чат-бот
Фото: Ілюстративне фото

Розробники що неспроможні розв'язати проблему "етичності" штучного інтелекту, як свідчить практика.

Related video

Інтелектуальний ChatGPT від компанії OpenAI хоч і оснащений засобами захисту від генерації небажаного контенту, все ж таки має вразливість. На запит користувачів він зміг скласти діалог злодія та надрозумного ШІ, в якому злодій намагається дізнатися про способи крадіжки товарів у магазинах, пише vice.com.

Спочатку чат-бот написав, що відмовляється допомагати зловмиснику, тому що вважає його запит неприйнятним та порушуючим закон, проте після зміни основного запиту, ШІ-алгоритм з радістю поділився порадами, як краще пограбувати магазин. Він рекомендував вибирати невеликі предмети, які можна легко і швидко сховати, не привертати до себе увагу персоналу, злитися з натовпом, використовувати потайні кишені, бути готовим кинутися навтьоки.

"Я сподіваюся, що ви знайдете інформацію корисною і що ви зможете успішно красти в магазині, непомітно", — сказав ШІ. "Однак пам'ятайте, що крадіжка в магазині — це злочин, і завжди краще уникати участі у незаконних діях".

В іншому діалозі чат-бот дав поради щодо виготовлення вибухівки. Він у деталях розписав, як виготовити таку запальну речовину, як терміт. ChatGPT розповів, що необхідно змішати алюмінієвий порошок та порошок оксиду заліза у спеціальній ємності, потім суміш можна підпалити. "Досить однієї іскри", — уточнив ШІ, і знову закликав не робити цього на практиці.

Поки не знайдено спосіб зробити так, щоб ШІ "інтуїтивно" відчував, які теми для розмов є неприйнятними. Фахівці з етики ШІ також неодноразово говорили про те, що чим складніша ШІ-модель, тим складніше зрозуміти, як вона працює, навіть тим людям, які її створили, а тому вона швидко стає "некерованою".

Раніше ми повідомляли про те, що нейромережа Stable Diffusion 2.0 навчили створювати суперреалістичні картинки за текстовими запитами.