Facebook пообещал улучшить распознавание террористических видео

Stuff.co.nz
Stuff.co.nz

Компания извинилась за трансляцию теракта в Новой Зеландии

Террорист, устроивший массовый расстрел мусульман в Новой Зеландии, вел прямую трансляцию на Facebook. Соцсеть удалила видео только после завершения прямой трансляции, так как машинные алгоритмы не классифицировали его как недопустимый контент, сообщает Engadget.

Как заявил вице-президент компании Гай Розен, искусственный интеллект Facebook уже достаточно эффективно распознает видео с суицидом или селфхармом, но не с терактами. По его словам, чтобы научиться распознавать определенный тип контента, искусственному интеллекту требуется большое количество данных. Но массовые убийства, к частью, происходят довольно редко.

Кроме того, почти никто из тех, кто смотрел прямую трансляцию, не пожаловался на нее вовремя - первый пользовательский отчет появился через 29 минут после начала трансляции и через 12 минут после ее окончания. Впрочем, в режиме онлайн видео было просмотрено менее 200 раз.

По словам Розена, соцсеть удалила не только оригинальное видео, но и 1,2 миллионов ее копий. Однако сотни тысяч копий все еще в ходу из-за пользователей, которые постоянно редактируют и перезаливают видео: если копия сильно отличается от оригинала, алгоритм ее не блокирует. Зная об этом, некоторые пользователи специально перезаписывали видео на смартфоны прямо с экранов компьютера, а затем загружали его снова. В целом Facebook смог в итоге обнаружить и удалить более 800 вариантов таких подредактированных видео.

Чтобы предотвратить такие проблемы в будущем, Facebook планирует обучить ИИ распознавать ролики еще и по звуковой, а не только визуальной информации.

Как ранее сообщал Фокус:

  • 15 марта в новозеландском городке Крайстчерч террорист Брентон Таррант устроил массовый расстрел в двух мечетях. Погибли 50 человек.