ШІ на допомогу: японець використовував нейромережу, щоб видаляти цензуру з порнороликів
Чоловік прибирав ретуш із геніталій порноакторів, а потім продавав відредаговані фото та відео в інтернеті. У результаті його заарештували.
Жителя Японії Масаюкі Накамото заарештували за продаж відеороликів без цензури, яку він прибирав за допомогою системи штучного інтелекту.
Про це повідомляє видання Vice.
За даними японської поліції, 43-річний чоловік із префектури Хіого скористався алгоритмом глибокого навчання TecoGAN для заміни пікселів, які "закривають" геніталії в роликах порнографічного характеру. За місцевими законами, можна поширювати навіть найзбоченіші відео, тільки б інтимні місця були заретушовані.
Масаюкі Накамото продав близько 10 тис. оброблених відеороликів через власний сайт і заробив близько 11 млн єн ($96 тис.). Утім, японця 18 жовтня заарештували під час рейду за продаж підроблених фотографій за ціною близько $20. Затриманий визнав себе винним у порушенні авторських прав і поширенні непристойних зображень. Однак його не стали звинувачувати в порушенні недоторканності приватного життя акторів.
"Це перший випадок у Японії, коли поліція зловила користувача ШІ-системи. Наразі немає закону, який криміналізує використання ШІ для створення таких зображень", — заявив Дайсуке Суеєсі, юрист, який займався справами про кіберзлочинність.
На його думку, не варто криміналізувати подібні програми, оскільки їх можна використовувати і в законних цілях. Однак з огляду на численні порушення, слід прийняти закони для обмеження застосування такого ПЗ на шкоду іншим.
Жертвами підробки відео за допомогою технології діпфейків (deepfake) стають багато людей, найчастіше жінки. У Тайвані 18 жовтня заарештували чоловіка за продаж діпфейк-порно в Telegram-каналі, який нараховує близько 6 тис. підписників. Президентка країни Цай Інвень назвала злочин "сексуальним насильством в інтернеті" та заявила, що розгляне питання про прийняття закону, який заборонить його. Глава держави також пов'язала використання технології з загрозою демократії, яку представляють фальшиві відеоролики та недостовірна інформація.
Потенціал використання діпфейків для маніпулювання громадською думкою був продемонстрований ще у 2018 році, коли на вірусному відео було показано, як колишній президент США Барак Обама назвав свого наступника Дональда Трампа "повним йолопом". Наступного року штат Каліфорнія ввів заборону на політичні діпфейки протягом 60 днів після виборів, щоб боротися з потенційною дезінформацією.
До сих пір технологію в більшості випадків використовували для імітації порнографічних відео, дуже часто для заміни осіб. За даними стартапу Sensity, у 2019 році 96% діпфейків застосовувалися в порнороликах без згоди реальних людей, жертвам доводилося боротися за видалення такого контенту. В Індії група зловмисників шантажувала людей, погрожуючи відправити підроблені відео родичам.
Раніше вчені з'ясували, як гарантовано відрізнити діпфейки від реальних людей. Виявилося, що слабким місцем нейромереж є очі, адже їм не вдається зробити круглими контури зіниць або райдужної оболонки.