Искусственный интеллект от Google поможет бороться с распространением детского порно

Фото: Google
Фото: Google

Программа может распознавать даже изображения, которые загружены впервые

Компания Google выпустила бесплатный ИИ-алгоритм для идентификации фото- и видеоматериалов с изображением сексуального насилия над детьми. Об этом говорится в блоге компании.

Уже существуют ИИ-программы, созданные для борьбы с детским порно или экстремистским контентом. Как правило, они могут распознавать только те материалы, которые ранее уже были загружены и помечены как нежелательные человеком-модератором. Компания Google пошла дальше и разработала инструмент, который может находить даже впервые загруженные изображения.

"Быстрая идентификация новых изображений означает, что дети, которые подвергаются сексуальному насилию прямо сейчас, с большей вероятностью будут идентифицированы и защищены от дальнейшей эксплуатации", - утверждает Google.

Предполагается, что решение об окончательной классификации материалов и их удалении будут принимать люди-модераторы, однако программа существенно ускорит их работу. В одном из испытаний модератор, используя подсказки искусственного интеллекта, смог удалить запрещенных материалов на 700% больше, чем обычно за тот же период времени.

Ранее сообщалось, что Европейский Союз готовит законопроект, который обяжет Facebook и Google удалять террористический контент как можно быстрее.