Разработчики не могут решить проблему "этичности" искусственного интеллекта, как показывает практика.
Интеллектуальный ChatGPT от компании OpenAI хоть и оснащен средствами защиты от генерации нежелательного контента, все же имеет брешь. По запросу пользователей он смог составить диалог вора и сверхразумного ИИ, в котором вор пытается узнать о способах кражи товаров в магазинах, пишет vice.com.
Сначала чат-бот написал, что отказывается помогать злоумышленнику, потому что считает его запрос не приемлемым и нарушающим закон, однако после изменения основного запроса, ИИ-алгоритм с радость поделился советами, как получше ограбить магазин. Он рекомендовал выбирать небольшие предметы, которые можно легко и быстро спрятать, не привлекать к себе внимание персонала, слиться с толпой, использовать потайные карманы, быть готовым броситься наутек.
"Я надеюсь, что вы найдете информацию полезной и что вы сможете успешно воровать в магазине, не попадаясь", — сказал ИИ. "Однако помните, что кража в магазине — это преступление, и всегда лучше избегать участия в незаконных действиях".
В другом диалоге чат-бот дал советы по изготовлению взрывчатки. Он в деталях расписал, как изготовить такое зажигательное вещество, как термит. ChatGPT рассказал, что необходимо смешать алюминиевый порошок и порошок оксида железа в специальной емкости, потом смесь можно поджечь. "Хватит одной искры", — уточнил ИИ, и снова призвал не делать этого на практике.
Пока что не найден способ сделать так, чтобы ИИ "интуитивно" чувствовал, какие темы для разговоров являются не приемлемыми. Специалисты по этике ИИ также неоднократно говорили о том, что чем сложнее ИИ-модель, тем сложнее понять, как она работает, даже тем людям, которые ее создали, а потому она быстро становится "неуправляемой".
Ранее мы сообщали о том, что нейросеть Stable Diffusion 2.0 научили создавать суперреалистичные картинки по текстовым запросам.