Забанить терроризм. Как и почему Facebook изменил правила Live-трансляций

Фото пользователя StockSnap на Pixabay
Фото пользователя StockSnap на Pixabay

Вслед за мартовским терактом в Новой Зеландии, транслировавшимся через Facebook Live, американская соцсеть изменила правила живых трансляций. Какой ответ она дала авторам террористических эфиров, и как международное сообщество хочет бороться с таким контентом, рассказывает Фокус

Related video

Террорист, в марте расстрелявший более 50 мусульман в мечети новозеландского города Крайстчерч, транслировал свое преступление в Facebok Live. Администрация соцсети удалила видео только после завершения стрима, так как машинные алгоритмы вовремя не классифицировали его как недопустимый контент. Этот инцидент всколыхнул дебаты о том, кто должен нести ответственность за распространение экстремистских материалов в интернете, и вынудил Facebook ужесточить модерацию потоковых видео.

В один "страйк"

"Подавляющее большинство людей используют Facebook Live в позитивном ключе, стремясь разделить радостный момент с друзьями или привлечь внимание к идеям, которые их волнуют, – написал в официальном сообщении компании ее вице-президент Гай Розен. – И все же функцией Live могут злоупотреблять, а мы хотим предпринять шаги, чтобы ограничить это злоупотребление".

По его словам, Facebook начала думать над решением данной проблемы сразу после трагедии в Новой Зеландии. И вот что надумали специалисты компании. Ранее видеотрансляции, нарушающие стандарты Facebook, просто удались, а сами аккаунты блокировались после нескольких нарушений (как правило, временно). Теперь же соцсеть вводит политику "одного страйка": после первой же неподходящей публикации пользователь будет терять доступ к функции Facebook Live на определенный промежуток времени (например, на месяц).

В ближайшие недели компания планирует также ввести для таких аккаунтов запрет на публикацию рекламы. Facebook пока не перечислил четкие критерии, по которым будет определяться неуместность контента, однако отмечает, что бан можно получить за публикацию обращения террористической группы без критического контекста.

ИИ Facebook уже достаточно хорошо распознает видео с суицидом и самовредительством, но не с терактами

Как ранее заявлял Гай Розен, искусственный интеллект Facebook уже достаточно эффективно распознает видео с суицидом или самовредительством, но не с терактами. По его словам, ИИ требуется большое количество данных, чтобы научиться распознавать определенный тип контента, а массовые убийства, к счастью, происходят довольно редко.

Хотя сама трансляция теракта в Крайстчерче собрала всего около 200 просмотров, позже модераторам помимо оригинального видео пришлось удалять и многочисленные копии. Сотни тысяч копий долго оставались в ходу из-за пользователей, которые редактировали и перезаливали видео. Ведь если измененный ролик сильно отличается от оригинала, алгоритм распознавания его не блокирует.

Чтобы в дальнейшем экстремистский контент можно было удалять оперативно, Facebook решил инвестировать $7,5 млн в улучшение алгоритмов распознавания видео и аудио. Исследования будут проводиться совместно с учеными из Университета штата Мэриленд, Корнеллского университета и Калифорнийского университета в Беркли.

Некоторые эксперты считают, что это всего лишь полумера, так как проблема гораздо шире модерации потоковых видео. "Что нам нужно, так это увеличение инвестиций в создание онлайн-стандартов, подкрепление их законами и обеспечение международного сотрудничества между правительствами", – говорит Андре Оболер, главный лектор по кибербезопасности в юридической школе Университета Ла Троба. По его словам, борьба с экстремизмом в интернете станет эффективной только тогда, когда модераторы, наконец, всерьез обратят внимание не на трансляции преступлений, а на пропаганду ненависти и насилия, которые им предшествует.

Вызов брошен

Похожие выводы после трагедии сделала и премьер-министр Новой Зеландии Джасинда Ардерн. "Эта террористическая атака была изначально спланирована, как вирусный контент", – утверждает она. Премьер-министр полагает, что технологические компании совместно с правительствами должны активизировать усилия, чтобы подобные трагедии больше не повторялись и, тем более, не попадали в прямой эфир.

Свои рассуждения она воплотила в проекте соглашения под названием "Вызов Крайстчерча". Документ призывает крупные социальные сети тщательно изучить ПО, которое направляет людей к жестокому контенту, а также делиться с властями большим количеством данных с целью искоренить токсичные материалы в Сети. Данное соглашение не предъявляет список обязательных требований. Скорее, это попытка на международном уровне выработать рекомендации, которые помогут бороться с экстремистским контентом.

На данный момент подписать соглашение в ходе встречи в Париже готовы власти Франции, Великобритании, Канады, Австралии, Иордании, Сенегала, Индонезии, Норвегии и Ирландии, а также представители технологических гигантов, в том числе Google, Facebook, Microsoft и Twitter. Правительство США это сделать отказалось. Марк Цукерберг на мероприятие не приехал.