ИИ теперь есть в огромном количестве смартфонов, однако эксперты считают, что технологию можно использовать для обмана простых пользователей.
Чат-боты на основе искусственного интеллекта (ИИ) вскоре станут настолько хороши, что их будет трудно отличить от людей. Однако у этой технологии есть риски, пишет The Sun.
Один из ведущих экспертов по кибербезопасности Роджер Граймс рассказал, что, чат-боты, такие как ChatGPT от OpenAI или Gemini от Google, могут значительно облегчить выполнение скучных задач. Компании внедряют их для решения простых (а иногда и сложных) проблем поддержки клиентов.
Частью этого является создание чат-ботов на основе искусственного интеллекта, которые будут говорить более естественно, как человек, и отличить их от реальных людей будет большой проблемой.
Многие эксперты предупреждают об опасностях, которые несет в себе передовой искусственный интеллект, и о том, как киберпреступники могут использовать его для обмана потенциальных жертв.
Однако Роджер сказал, что, по его мнению, тот факт, что чат-боты становятся все более похожими на людей, в целом является положительным явлением. Кроме того, в большинстве смартфонов теперь есть встроенные элементы искусственного интеллекта, а такие сервисы, как Google, выдают ответы даже при выполнении простых поисковых запросов в интернете.
Что касается опасностей, связанных с обманом и ИИ, речь идет об рисках начиная с дипфейков и заканчивая кибератаками, в которых преступники используют ИИ. Кроме того, известно, что чат-боты "галлюцинируют" и выдают совершенно ложную информацию. Этих ошибок не допустил бы человек.
Ранее мы писали про ChatGPT в голове: в мозговой имплант интегрировали ИИ от OpenAI. В компании Synchron утверждают, что новая функция позволяет людям с тяжелым параличом быстрее отвечать на сообщения, используя лишь силу мысли.