Слабке місце ШІ: вчені показали, як відрізнити діпфейки від реальних людей за очами

розпізнавання обличчя
Фото: Pixabay

Навіть просунуті нейромережі не вміють створювати реалістичні зіниці, хоча зазвичай ці вади практично непомітні.

Related video

Команда вчених з США виявила особливість, яка може гарантовано відрізнити діпфейки від фотографій реальних людей. Дослідження опубліковане на сайті arXiv.org.

В останні роки в Інтернеті стали дуже поширені діпфейки (deepfake) — фотографії і відео, "змонтовані" машинними алгоритмами. Наприклад, відомий актор може займатися речами, які ніколи не робив у житті. Більш того, штучний інтелект навчився створювати зображення людей, що ніколи не існували.

На перший погляд може здатися, ніби все це просто весела забава, проте зловмисники використовують згенеровані комп'ютером зображення, щоб видавати себе за інших або приховувати свою особистість в соціальних мережах. Технологія настільки розвинулася, що практично неможливо визначити підробку за зовнішнім виглядом. На щастя, дослідники з Університету в Олбані, Університету в Баффало і компанії Keya Medical знайшли критичний недолік.

Штучні обличчя створюються з допомогою генеративно-змагальних нейромереж (GAN), які навчаються на справжніх фотографіях, потім створюють свої зображення на їх основі. Готові обличчя відправляють в іншу нейромережу яка перевіряє справжність і повертає фальшиві на доопрацювання. Процедура повторюється кілька разів, поки діпфейки не стають маскімально реалістичними.

зіниці Fullscreen
Неправильна форма зіниць
Фото: Скриншот

Автори дослідження виявили, що більшість GAN малюють не круглі зіниці через відсутність фізіологічних обмежень. В результаті навіть найякісніші діпфейкі мають очі неправильної форми. За бажанням, будь-який користувач може наблизити зображення і виявити відхилення. Крім того, вчені пропонують написати програму, яка буде автоматично виявляти нерівності в формі зіниць.

очі Fullscreen
Для порівняння: реальні очі — зліва, і діпфейкі — справа
Фото: Скриншот

"Неправильна форма зіниці — хороший знак для людини, щоб візуально визначити особу, створена GAN, навіть якщо немає граничних позначок навколо зіниць, ми можемо легко побачити, що форми зіниць, що генеруються GAN, дуже неправильні, а форми обох зіниць сильно розрізняються на одному і тому ж зображенні обличчя, створеному GAN", — зазначили вчені.

Раніше писали, що компанія Hour One платить людям за створення deepfake-клонів. Учасників проекту сканують, а потім використовують їх цифрові копії для створення різних роликів.

Повідомляли також, що японці сканують знаменитостей для створення цифрових двійників. Завдяки новим віртуальним платформ актори і моделі зможуть зберегти роботу під час будь-якої пандемії.