Понять угрозу

Как искусственный интеллект поможет Facebook бороться с терроризмом

Facebook представил новые технологии по борьбе с терроризмом. Сотрудники компании сообщили, что тестируют программное обеспечение, которое будет выявлять в социальной сети вербовщиков и экстремистов. Основная роль в процессе отводится искусственному интеллекту.

Фото: Олег Харсеев, Коммерсантъ

Новые технологии смогут не только находить опасные сообщения и изображения, но и понимать их контекст. Кроме того, программа будет выявлять аккаунты предполагаемых террористов и запрещать им создавать новые страницы вместо заблокированных ранее.

Насколько эффективным будет новый механизм? И есть ли риск ошибки?

Директор по лингвистическим разработкам компании «Наносемантика» Анна Власова отметила, что искусственный интеллект сможет качественно выполнять такую работу. «Мы можем определять основную тему и содержание текста. Любые угрозы можно просто прочитать, вычислить, и машина это сделать точно так же, как человек. Можно делать с помощью использования нейронных сетей. Нейронная сеть может обучиться на примерах текстов, например, с угрозами или с призывами к террористической деятельности, и потом похожие тексты выделять и замечать, что в них содержится примерно такая же информация. Можно их блокировать, можно их как-то отмечать. Такую систему надо настраивать, чтобы она не шумела, чтобы не причисляла к угрожающим текстам любой, где есть слово “терроризм”», — пояснила она.

Борьбу с пропагандой нелегальных действий Facebook начал еще около года назад, когда стала использовать автоматическую систему блокировки видео экстремистского содержания. Кроме того, модераторы социальной сети рассматривают жалобы пользователей на предполагаемых вербовщиков.

Инициативы Facebook по борьбе с терроризмом неизбежно приведут к потерям для компании, полагает аналитик группы компаний «Финам» Леонид Делицын: «Речь идет не только о цене, которую будет платить общество, например, в лице раздраженных пользователей, незаслуженно заблокированных, но и в том, какие потери будет нести сам Facebook в процессе настраивания параметров своего алгоритма. Если он заблокирует какое-нибудь влиятельное лицо неправомерно, это влиятельное лицо будет использовать свои медийные или иные каналы для того, чтобы сообщить всем, что сеть работает плохо. Если же, наоборот, Facebook будет пропускать какой-то нелегальный контент, то, соответственно, он будет нести издержки на разбирательства с контролирующими органами».

Автоматическую блокировку видео экстремистского содержания около года назад ввел и видеосервис YouTube. Однако эксперимент сложно назвать удачным — весной 2017 такие крупные компании, такие как AT&T, Verizon и L’Oreal, заявили, что отказываются размещать рекламу на ресурсе. Главная претензия — ролики показывали перед видео с экстремистским контентом.

Отчасти Facebook сейчас пытается снизить подобные риски, отметил генеральный директор агентства PRT Глеб Сахрай: «Facebook преследует свои задачи, чтобы и бюджеты не сокращались, но и был минимизирован ряд других рисков, в частности, связанных с тем, что правительства некоторых стран могут объявить бойкот в случае, если подобный контент получит широкое распространение. Главное, что делает Facebook — минимизирует использование человеческих ресурсов для отслеживания подобного контента и подобных сцен. Я думаю, что Facebook пойдет по аккуратному пути двойной модерации, когда сначала контент будет проверяться в автоматическом режиме роботом, а дальше уже будут живые люди принимать решение, удалять контент или оставлять».

Свои технологии выявления потенциальных террористов и экстремистов в социальных сетях есть и у российских специалистов. Осенью прошлого года в Томском государственном университете был разработан специальный алгоритм анализа больших данных. По данным газеты «Коммерсантъ», разработкой заинтересовались в российских силовых ведомствах.

Картина дня

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...