Facebook провела чистку
Компания впервые опубликовала отчет о модерации аккаунтов
Facebook в первые три месяца 2018 года приняла меры к ограничению доступа к почти 1,5 млрд аккаунтов и постов, которые нарушают политику компании. Об этом говорится в отчете компании.
Согласно отчету, Facebook ограничила доступ к 837 млн сообщений о спаме и 583 млн фейковых аккаунтов. Также Facebook удалила 21 млн постов, содержащих порнографию, 2,5 млн — с разжиганием ненависти, а также 1,9 млн постов, содержащих террористическую пропаганду.
«Это начало путешествия, а не конец, и мы стараемся быть как можно более открытыми»,— отметил Ричард Аллан, вице-президент Facebook по вопросам публичной политики в Европе, на Ближнем Востоке и в Африке.
В Facebook также заявили о том, что специально обученный искусственный интеллект увеличил количество обнаруженного неправомерного контента. ИИ автоматически блокировал такой контент вне зависимости от того, отмечали его пользователи таковым или нет. Особенно хорошо он работал для обнаружения спама и фейковых аккаунтов — в компании заявили, что им удалось обнаружить 98,5% фейковых аккаунтов и почти 100% спама.
Пользовательские отметки хорошо работали в случаях обнаружения порнографии. Наибольшую сложность для компании представляла модерация контента, направленного на разжигание ненависти,— в компании сумели найти примерно 38% таких постов. По словам Алекса Шульца, вице-президента компании по аналитике данных, количество модерируемого контента, содержащего сцены насилия, почти утроилось за квартал. Господин Шульц заявляет, что это связано с ситуацией в Сирии.
Facebook в последнее время делает шаги по повышению прозрачности. В апреле компания опубликовала свои документы, раскрывающие, что разрешено и не разрешено публиковать на сайте,— через год после того, как они были слиты в сеть. Facebook также объявила, что рекламодатели, осуществляющие политическую деятельность, должны пройти процесс аутентификации и подтвердить свою принадлежность к рекламным объявлениям.
Отчет Facebook появился через неделю после публикации открытого документа Santa Clara Principles, в котором авторы попытались представить принципы, согласно которым крупные платформы должны модерировать контент. В документе указывается, что социальные сети должны публично рассказывать о количестве удаляемой информации, а также объяснять, почему это сделано, и предлагать возможность обжаловать это решение.
«Это отличный первый шаг,— заявила Джиллиан Йорк, директор по вопросам международной свободы и выражения в некоммерческой правозащитной организации Electronic Frontier Foundation,— однако мы не имеем представления о том, сколько случается ошибок и сколько апелляций приводит к восстановлению контента. Необходимо улучшать обратную связь с пользователями, предоставляя подробную информацию о причинах блокировки».
Facebook не единственная платформа, которая делает шаги по обеспечению прозрачности. В прошлом месяце Youtube заявила, что удалила 8,3 млн противоправных видео за период с октября по декабрь прошлого года. По словам госпожи Йорк, это «прямой ответ на давление, которое крупные платформы испытывают в течение последних нескольких лет от различных заинтересованных сторон, включая гражданские общественные группы и ученых».