Модерация агрессии
Справится ли Facebook с насилием в прямом эфире
В Facebook придумали, как бороться с недопустимым контентом. Компания объявила о найме дополнительных сотрудников, которые займутся изучением жалоб на видео. Научится ли соцсеть отслеживать агрессивные ролики? Об этом — Альбина Хазеева.
В последнее время жестокие прямые эфиры, которые запускают пользователи, стали настоящей проблемой для Facebook. В онлайне произошло уже несколько серьезных преступлений. Наибольший резонанс имело недавнее убийство в Кливленде. 37-летний американец Стив Стивенс запустил трансляцию на своей странице в соцсети: мужчина остановил проезжавший мимо автомобиль и выстрелил в пассажира. Запись была доступна для просмотра еще несколько часов после завершения эфира.
На вторые сутки после инцидента в Facebook объявили о том, что начнут оперативнее реагировать на подобные записи. А сейчас — спустя две с половиной недели — компания отчиталась о наборе дополнительного персонала в команду.
Соцсеть очень быстро приняла меры и таким образом застраховала себя от возможных проблем в будущем, отметил гендиректор агентства PRT Глеб Сахрай.
«Это особенность digital-среды, которая очень быстро развивается, на различных платформах реализуются быстрые маркетинговые решения, поэтому компании тоже культивируют системы оперативной реакции. Руководство Facebook действительно в состоянии в течение нескольких дней согласовать нужные меры, выделить бюджет, принять решение и его анонсировать. В этом смысле компания, конечно, имеет серьезную фору перед традиционными компаниями, таким как Samsung», — пояснил он.
У Facebook уже есть сотрудники, которые занимаются изучением жалоб одних пользователей на контент других. Сейчас их 4,5 тыс. человек. В течение года заявки начнут рассматривать еще 3 тыс. человек по всему миру, заявили в соцсети. Таким образом, штат таких сотрудников увеличится почти на 70%.
Но речь идет о реагировании в ручном режиме, который не может быть достаточно эффективным, считает руководитель компании «Лаборатории Комьюнити» Владислав Титов.
«Это, видимо, временный выход, согласно тому принципу, что ничего не делать нельзя. Видимо, в Facebook соотнесли число поступающих жалоб и количество требуемых сотрудников. Однако не факт, что эти люди действительно смогут мгновенно распознать, противоправный это контент или нет. Но и автоматически блокировать любую запись по жалобе Facebook не может. Тогда возникнет огромное количество перегибов», — заметил он.
По мнению экспертов, параллельно с использованием живых модераторов Facebook разрабатывает автоматические фильтры. Программы уже научились распознавать лица и обнаженные тела на снимках. Возможно, в обозримом будущем машины все же смогут по ряду признаков определять и насилие в прямом эфире. А до тех пор соцсети придется постепенно расширять штат сотрудников: онлайн-трансляции очень популярны среди пользователей, и с каждым днем их число увеличивается.
Как сообщил Марк Цукеберг, ускоренное рассмотрение жалоб на прямые трансляции уже принесло результаты. На прошлой неделе в соцсеть поступило сообщение, что пользователь в эфире собирается совершить самоубийство. Facebook связался с полицией, и трагедию удалось предотвратить.