Сучасні нейромережі здатні точно імітувати голоси, змінювати обличчя людей так, що можна обдурити будь-яку систему безпеки, створювати діпфейки та боротися з ними.
Штучний інтелект можна використовувати не тільки в благих, а й у злочинних цілях, наприклад, створювати фальшиві особи, формувати діпфейки, поширювати свідомо неправдиву інформацію. Про темний бік ШІ розповідає Фокус.
Підробка голосу
У сучасних електронних системах голос часто використовується для підтвердження особистості людини, наприклад, в автоматизованих службах підтримки клієнтів великих банків Morgan Chase та HSBC. За допомогою голосу налаштовується доступ до "розумних" помічників, таких як Amazon Alexa та Google Home. Але ця технологія далеко не безпечна, адже ШІ може з високою точністю імітувати тембр голосу будь-якої людини.
Видання The Wall Street Journal опублікувало матеріал про шахраїв, які за допомогою нейромережі змусили керівника британської компанії переказати їм на рахунок €220 тис. Справа була така: зловмисники зателефонували одному з топменеджерів, попередньо "сформувавши" голос керівника материнської компанії з Німеччини за допомогою спеціального ПЗ. Цей голос наказав терміново виплатити гроші комусь угорському постачальнику. Обдурений менеджер пізніше заявляв, що впізнав німецького боса за характерним акцентом і тембром.
Співробітники університету Чикаго в США перевірили, чи складно розробити подібну нейромережу, і пізніше опублікували результати дослідження. Вони дійшли висновку, що зробити це можливо, маючи запис оригінального голосу людини-"приманки" і маючи доступ до нейромереж, за допомогою якого синтезується мовлення так, щоб голос вимовляв потрібні фрази.
Учені використали записи голосів 90 осіб із публічних баз даних, а потім склали помилкові промови за допомогою відкритих нейромереж SV2TTS та AutoVC. За їхніми словами, фейкові голоси змогли обдурити системи захисту Resemblyzer і Microsoft Azure. Дослідники також спробували обійти системи WeChat та Amazon Alexa, запропонувавши 14 добровольцям увійти у власні акаунти, використовуючи синтезовані голоси. Унаслідок Alexa "повірила" всім записам, а WeChat — 9 із 14.
Експеримент, який проводиться за участю 200 добровольців, показав, що люди можуть відрізняти справжніх співрозмовників від "штучних" лише у 50% випадків.
Обман систем розпізнавання облич
Технологія розпізнавання осіб давно застосовується для пошуку людей, підтвердження їх особистості або розблокування смартфонів. Фахівці з Тель-Авівського університету перевірили, наскільки вона надійна, навчивши нейромережу StyleGAN створювати зображення-відмички для обману сучасних систем. Вони надали ШІ доступ до загальнодоступної бази Labeled Faces in the Wild (LFW) Массачусетського технологічного університету.
Нейромережа склала зображення "нейтральних" осіб на основі 13 тис. фото. З'ясувалося, що ці штучні особи здатні обдурити три системи розпізнавання — Dlib, FaceNet і SphereFace. Для кожної з них застосовували по 9 осіб-відмичок, а потім системам показали справжні особи з бази даних LFW. Зрештою, Dlib помилилася у 63,92% випадків, FaceNet — у 43,82%, SphereFace — у 44,15%. Так, усього 9-ти осіб-"відмичок" може бути достатньо для злому систем.
Обхід систем безпеки
Інша група вчених з Університету імені Бен-Гуріона (Ізраїль) та NEC Corporation перевірила, чи можна змінити справжню особу, щоб її не розпізнала жодна система безпеки. Нейромережа визначила частини особи, за які найчастіше "чіпляються" системи розпізнавання, а потім підібрала грим, який допоміг їх приховати. Для цього алгоритм вивчив фото певної людини й інших людей, схожих за типажем, склав так звану карту обличчя, помічаючи характерні риси, після цього створив віртуальну копію, на яку вчені нанесли грим. Готове зображення вони показували системі безпеки доти, доки вона не перестала впізнавати людину. Останній етап — нанесення аналогічного макіяжу на обличчя добровольця.
Цей метод пізніше перевірили на 10 чоловіках і 10 жінках, показавши їхні обличчя під гримом системі ArcFace. Як зазначається у статті, алгоритм зміг розпізнати замаскованих учасників експерименту лише в 1,22% випадків, величезна різниця порівняно із 47,5% без гриму та 33,7% зі звичайним макіяжем. Іншими словами, нейромережа дозволила загримуватися так, що люди могли залишатися невпізнаними у 99% випадків. Учені наголосили, що такий грим вводить в оману не лише камери, а й реальних людей.
Діпфейки, які розв'язали "війну" машин
Deepfake — це хибне зображення, створене нейромережею, що працює на основі алгоритмів глибокого навчання (deep learning). У 2019 році жертвою технології стала членкиня Палати представників Конгресу США Ненсі Пелосі — штучний інтелект обробив відеозапис так, що політикиня здавалася п'яною.
У тому ж році засновник Meta (ексFacebook) Марк Цукерберг оголосив конкурс із розробки нейромереж, що визначають діпфейки, і пообіцяв нагороду в $10 млн. І поки одні розробники намагаються створити ідеальні "обманки", інші шукають нові методи боротьби з ними.
Айтішники з Каліфорнійського університету в Сан-Дієго створили нейромережу, що обманює детектори діпфейків, щоб оцінити можливості зловмисників. Вона вбудовує в оброблене відео спеціальний шум фону, через який системи визнають запис оригінальним. Звичайно, розробники не розкрили всі секрети своєї технології.
Вони розглянули два сценарії: коли творці діпфейків мають повну інформацію про детектори і коли відомий лише тип машинного навчання. У першому випадку нейромережа змогла обдурити "захисників" із 99% стиснених відео та 84,96% стиснених, а в другому — 86,43% і 78,33% відповідно. Ґрунтуючись на результатах дослідження, програмісти порадили використати метод навчання, коли "ошуканець" і "викривач" змагаються між собою.
Раніше писали, що Ілон Маск створив штучний інтелект, який вміє "імітувати" мозок. Нейромережа GPT-3 навчилася сприймати людську мову не гірше за справжніх людей.