Новый ИИ будет еще больше похож на человека: эксперт пояснил, в чем риски

Искусственный интеллект и человек
Фото: iStock | Искусственный интеллект: иллюстративное фото

ИИ теперь есть в огромном количестве смартфонов, однако эксперты считают, что технологию можно использовать для обмана простых пользователей.

Чат-боты на основе искусственного интеллекта (ИИ) вскоре станут настолько хороши, что их будет трудно отличить от людей. Однако у этой технологии есть риски, пишет The Sun.

Один из ведущих экспертов по кибербезопасности Роджер Граймс рассказал, что, чат-боты, такие как ChatGPT от OpenAI или Gemini от Google, могут значительно облегчить выполнение скучных задач. Компании внедряют их для решения простых (а иногда и сложных) проблем поддержки клиентов.

Частью этого является создание чат-ботов на основе искусственного интеллекта, которые будут говорить более естественно, как человек, и отличить их от реальных людей будет большой проблемой.

Многие эксперты предупреждают об опасностях, которые несет в себе передовой искусственный интеллект, и о том, как киберпреступники могут использовать его для обмана потенциальных жертв.

Однако Роджер сказал, что, по его мнению, тот факт, что чат-боты становятся все более похожими на людей, в целом является положительным явлением. Кроме того, в большинстве смартфонов теперь есть встроенные элементы искусственного интеллекта, а такие сервисы, как Google, выдают ответы даже при выполнении простых поисковых запросов в интернете.

Что касается опасностей, связанных с обманом и ИИ, речь идет об рисках начиная с дипфейков и заканчивая кибератаками, в которых преступники используют ИИ. Кроме того, известно, что чат-боты "галлюцинируют" и выдают совершенно ложную информацию. Этих ошибок не допустил бы человек.

Ранее мы писали про ChatGPT в голове: в мозговой имплант интегрировали ИИ от OpenAI. В компании Synchron утверждают, что новая функция позволяет людям с тяжелым параличом быстрее отвечать на сообщения, используя лишь силу мысли.