Разделы
Материалы

ИИ становится все опаснее: эксперт пояснил, как дипфейки могут навредить людям

Ирина Рефаги
Фото: Pixabay | Создание дипфейка: иллюстративное фото

Любой человек может стать "героем" фейкового видео, для создания которого потребуются секунды. Отличить реальность от подделки весьма сложно.

Адам Пилтон, консультант по кибербезопасности компании CyberSmart и бывший детектив, расследовавший киберпреступления, рассказал изданию The Sun о том, насколько быстро совершенствуются ИИ-технологии и чем это чревато.

Дипфейки используют искусственный интеллект (ИИ) для создания убедительных видеороликов, на которых люди двигаются, говорят и даже поют. Нейросети могут легко клонировать голос любого человека — для этого потребуется запись голоса реального человека. Файл может быть длиной всего несколько секунд.

"ИИ становится все более сложным, — сказал Адам. — Ответы становятся все более точными, количество доступных инструментов и ресурсов резко возросло. Мы видим дипфейки с более реалистичной мимикой и голосом. Из-за этого поддельные ролики будет еще труднее отличить от реальных видео и аудио".

Эксперт отметил, что создавать дипфейки становится проще. Сейчас существует множество различных приложений и сервисов, которые помогают создавать их всем желающим. И время, необходимое для создания подделок, сокращается.

Но не смотря на то, что дипфейки становятся все более продвинутыми, появляются новые способы их обнаружения. Как заменил специалист, технологические компании разрабатывают инструменты для обнаружения материалов, созданных ИИ, поэтому злоумышленникам становится все труднее остаться незамеченными.

Но даже технологии иногда не замечают признаков того, что видео фальшивое. Вот почему Саймон Ньюман, генеральный директор Центра киберустойчивости в Лондоне и член Международного консультативного совета Cyber ​​Expo, предупредил, что людям придется полагаться на свои собственные инстинкты. Очень важно задаваться вопросом о контексте видео и спрашивать, имеет ли оно смысл. Это особенно актуально, если видео содержит смелое заявление или требует срочных действий, пояснил он.

"Поскольку киберпреступники будут чаще использовать искусственный интеллект, станет гораздо труднее отличить подделку от настоящей", — сказал Саймон изданию.

Ранее мы писали о том, что самолет под управлением ИИ успешно перехватил истребитель врага. ИИ управлял самолетом Aero L-29 Delfin во время тестов, контролируя курс, скорость и высоту.