Системы искусственного интеллекта (ИИ), которые Facebook использует для модерации в социальной сети, не способны эффективно определять и удалять контент с проявлениями ненависти и чрезмерной жестокости, сообщает газета The Wall Street Journal (WSJ) со ссылкой на позицию инженеров компании, отраженную в документах. Несмотря на это, уже в 2019 году компания сократила время, которое живые модераторы могут уделять на рассмотрение жалоб на такое содержимое, что привело к завышению роли ИИ в публичной статистике Facebook, отмечает WSJ.
Искусственный интеллект Facebook не способен с приемлемой уверенностью определять расистские высказывания и видео от лица зачинщиков стрельбы, отмечает WSJ. В одном из случаев ИИ не мог установить разницу между видео автокатастроф и петушиных боев, что на протяжении нескольких недель озадачивало инженеров. «Проблема в том, что мы не можем и, наверное, никогда не сможем получить модель, которая бы определяла даже большинство нарушений, особенно в чувствительных вопросах»,— приводит газета слова одного из сотрудников Facebook из отчета от середины 2019 года.
Сотрудники Facebook также отмечали проблемы при распознавании языка вражды на языках мира. В частности, в конце 2020 года компания рассматривала возможность создания такого фильтра для арабского языка. Однако у компании не было достаточного массива информации о различных диалектах, и она испытывала проблемы даже со стандартным арабским.
Отметим, что в октябре главный тренер волгоградского футбольного клуба «Ротор» Дмитрий Хохлов сообщил, что Facebook интерпретирует его фамилию как пренебрежительное наименование украинцев и блокирует посты с ее упоминанием. Господин Хохлов подал иск к Facebook на 150 млн руб., в котором, в частности, попросил суд запретить Facebook «совершать в отношении Хохлова определенные действия». Пользователи Facebook сообщали о блокировках записи со словом «хохол» как минимум с 2015 года.
О других расследованиях WSJ по поводу проблем в Facebook — в материале «Ъ» «С Facebook сорвали покровы».