Не раскрывайте своих секретов чат-ботам: эксперт по ИИ объяснил, чем это опасно

искусственный интеллект, ИИ, алгоритмы, монитор
Фото: teahub.io | Искусственный интеллект: иллюстративное фото

По мнению профессора Майка Вулдриджа, откровенные беседы с ChatGPT о проблемах на работе или политических предпочтениях могут обернуться против пользователей.

Related video

Майк Вулдридж, профессор Оксфордского университета и специалист в сфере искусственного интеллекта (ИИ), считает, что разговаривать по душам с чат-ботом — опасно, поскольку бот будет говорить вам лишь то, что вы хотите слышать. Чем именно рискуют пользователи, передает The Guardian.

Майк Вулдридж утверждает, что нейросети вроде ChatGPT обучаются на основе той информации, которую они получают от юзеров. Проще говоря, если от какого-то количества людей ИИ получит данные о том, что какие-то группы людей "плохие", то в дальнейшем он будет все свои ответы касательно запросов об этих группах, строить на основе вывода, что они — "плохие". Последствия могут быть непредсказуемыми.

В своих лекциях ученый задается вопросом: сможет ли ИИ когда-нибудь по-настоящему стать похожим на человека? Он лично считает, что не стоит искать "сознание" или "сочувствие" в нейросетях. У них просто этого нет.

Важно
Новый уровень эволюции: робот с ИИ впервые превзошел людей "физически"

"Эта технология никогда ничего не испытывала, — говорит он. — Она создана для того, чтобы попытаться сказать вам то, что вы хотите услышать. Это все, на что она способна".

По мнению профессора, все, что вы вводите в ChatGPT, будет напрямую передано в будущие версии ChatGPT. И если, поразмыслив, вы решите, что раскрыли боту слишком многое, удаление информации ничего не решит, так как данные, попав в систему, там и остаются.

Представитель компании-разработчика OpenAI сообщил, что в апреле 2023 года была введена функция отключения истории чата. Как утверждают создатели ChatGPT, разговоры, начатые при отключенной истории чата, не будут использоваться для обучения и улучшения ИИ-моделей.

Ранее мы сообщали о том, что в Минобороны РФ посчитали ИИ-приложения ChatGPT, Midjourney, DALL-E, StableDiffusion и подобные, такими, которые представляют угрозу для нацбезопасности страны-агрессора.