Вот как не стоит использовать ChatGPT: эксперт рассказал, что может сделать ИИ
Обращение к ChatGPT за эмоциональной поддержкой может быть не лучшей идеей, поскольку чат-боты с искусственным интеллектом (ИИ) не обязаны соблюдать конфиденциальность, как врач или психотерапевт.
Основатель OpenAI Сэм Альтман недавно заявил, что при необходимости суд может юридически обязать компанию раскрыть переписку с ChatGPT, пишет Tom's Guide. Это стоит учитывать, прежде чем рассказывать ИИ о своих переживаниях.
Создатель ChatGPT отметил, что люди часто используют ИИ как терапевта или лайф-коуча. Особенно это распространено среди молодых людей, которые имеют проблемы в отношениях.
"Существует врачебная тайна, существует юридическая тайна, что угодно. Но мы еще не выработали четкой позиции относительно того, как это применять, когда вы общаетесь с ChatGPT", — сказал Альтман.
ВажноКак отмечают в издании, диалоговый ИИ будет только совершенствоваться в своем взаимодействии с людьми и понимании нюансов общения. Это в свою очередь может привести к тому, что все больше людей будут обращаться к нему за помощью в решении личных вопросов.
"Хотя делиться деталями с искусственным интеллектом будет становиться все легче, пользователям стоит хорошо подумать, что они готовы сказать", — подытожили авторы статьи.
Напомним, модель искусственного интеллекта Grok 4 от компании xAI продемонстрировала, что склонна писать доносы в государственные органы и медиа, если заподозрит правонарушение.
Фокус также писал о том, как агент искусственного интеллекта для программирования Gemini CLI не справился с просьбой организовать файлы и удалил их.