Компания извинилась за трансляцию теракта в Новой Зеландии
Террорист, устроивший массовый расстрел мусульман в Новой Зеландии, вел прямую трансляцию на Facebook. Соцсеть удалила видео только после завершения прямой трансляции, так как машинные алгоритмы не классифицировали его как недопустимый контент, сообщает Engadget.
Как заявил вице-президент компании Гай Розен, искусственный интеллект Facebook уже достаточно эффективно распознает видео с суицидом или селфхармом, но не с терактами. По его словам, чтобы научиться распознавать определенный тип контента, искусственному интеллекту требуется большое количество данных. Но массовые убийства, к частью, происходят довольно редко.
Кроме того, почти никто из тех, кто смотрел прямую трансляцию, не пожаловался на нее вовремя - первый пользовательский отчет появился через 29 минут после начала трансляции и через 12 минут после ее окончания. Впрочем, в режиме онлайн видео было просмотрено менее 200 раз.
- ЧИТАЙТЕ ТАКЖЕ: Теракт в эпоху SEO. Почему убийства в Новой Зеландии следует считать новым опасным видом терроризма
По словам Розена, соцсеть удалила не только оригинальное видео, но и 1,2 миллионов ее копий. Однако сотни тысяч копий все еще в ходу из-за пользователей, которые постоянно редактируют и перезаливают видео: если копия сильно отличается от оригинала, алгоритм ее не блокирует. Зная об этом, некоторые пользователи специально перезаписывали видео на смартфоны прямо с экранов компьютера, а затем загружали его снова. В целом Facebook смог в итоге обнаружить и удалить более 800 вариантов таких подредактированных видео.
Чтобы предотвратить такие проблемы в будущем, Facebook планирует обучить ИИ распознавать ролики еще и по звуковой, а не только визуальной информации.
Как ранее сообщал Фокус:
- 15 марта в новозеландском городке Крайстчерч террорист Брентон Таррант устроил массовый расстрел в двух мечетях. Погибли 50 человек.
- Премьер-министр Новой Зеландии Джасинда Ардерн назвала 15 марта "одним из самых мрачных дней в истории страны".