ИИ в помощь: японец использовал нейросеть, чтобы удалять цензуру из порнороликов

Ноутбук, компьютер
Фото: unsplash.com

Мужчина убирал ретушь с гениталий порноактеров, а затем продавал отредактированные фото и видео в Интернете. В итоге его арестовали.

Related video

Жителя Японии Масаюки Накамото арестовали за продажу видеороликов без цензуры, которую он убирал при помощи системы искусственного интеллекта.

Об этом сообщает издание Vice.

По данным японской полиции, 43-летний мужчина из префектуры Хиого воспользовался алгоритмом глубокого обучения TecoGAN для замены пикселей, "закрывающих" гениталии в роликах порнографического характера. По местным законам можно распространять даже самые извращенные видео, лишь бы интимные места были заретушированы.

Масаюки Накамото продал около 10 тыс. обработанных видеороликов через собственный сайт и заработал около 11 млн йен ($96 тыс.). Впрочем японца 18 октября арестовали во время рейда за продажу поддельных фотографий по цене около $20. Задержанный признал себя виновным в нарушении авторских прав и распространении непристойных изображений. Однако ему не стали предъявлять обвинение в нарушении неприкосновенности частной жизни актеров.

"Это первый случай в Японии, когда полиция поймала пользователя ИИ-системы. На данный момент нет закона, криминализирующего использование ИИ для создания таких изображений", — заявил Дайсуке Суэеси, юрист, который занимался делами о киберпреступности.

По его мнению, не стоит криминализовать подобные программы, поскольку их можно использовать и в законных целях. Однако учитывая многочисленные нарушения, следует принять законы для ограничения применения такого ПО во вред другим.

Жертвами подделки видео при помощи технологии дипфейков (deepfake) становятся многие люди, чаще всего женщины. В Тайване 18 октября арестовали мужчину за продажу дипфейк-порно в Telegram-канале, насчитывающим около 6 тыс. подписчиков. Президент страны Цай Инвэнь назвала преступление "сексуальным насилием в Интернете" и заявила, что рассмотрит вопрос о принятии закона, который запретит его. Глава государства также связала использование технологии с угрозой демократии, которую представляют фальшивые видеоролики и недостоверная информация.

Потенциал использования дипфейков для манипулирования общественным мнением был продемонстрирован еще в 2018 году, когда на вирусном видео было показано, как бывший президент США Барак Обама назвал своего преемника Дональда Трампа "полным тупицей". В следующем году штат Калифорния ввел запрет на политические дипфейки в течение 60 дней после выборов, чтобы бороться с потенциальной дезинформацией.

До сих пор технологию в большинстве случаев использовали для имитации порнографических видео, очень часто для замены лиц. По данным стартапа Sensity, в 2019 году 96% дипфейков применялись в порнороликах без согласия реальных людей, жертвам приходилось бороться за удаление такого контента. В Индии группа злоумышленников шантажировала людей, угрожая отправить поддельные видео родственникам.

Ранее ученые выяснили, как гарантированно отличить дипфейки от реальных людей. Оказалось, что слабым местом нейросетей являются глаза, ведь им не удается сделать круглыми контуры зрачков или радужной оболочки.