Американцы хотят сохранять свои лица в неприкосновенности
Технологии распознавания вызывают опасения властей и правозащитников
В то время как в одних странах, например в Китае, активно вводят системы распознавания лиц, в других уже начали их запрещать. Недавно в Калифорнии ввели трехгодичный мораторий на использование подобных технологий полицией и другими госслужбами. И если власти основным препятствием видят несовершенство технологий и высокую вероятность ошибок, то правозащитники опасаются тотальной слежки.
Не узнаю вас в гриме
Первым системы распознавания лиц запретил Сан-Франциско. Его городской совет еще в мае принял положение, в соответствии с которым местные органы власти, в том числе правоохранители, не могут использовать в своей работе подобные технологии. Позже еще несколько американских городов, в том числе Окленд (Калифорния) и Сомервилл (Массачусетс), последовали этому примеру.
Как система распознавания лиц работает в других странах
На прошлой неделе использование технологии запретили властям всего штата Калифорния. Правда, речь идет скорее о моратории сроком на три года. В числе прочего мораторий распространяется на использование соответствующего ПО в нательных камерах полицейских.
Одним из последних аргументов стал эксперимент, проведенный Американским союзом гражданских свобод (ACLU). В разработанную Amazon программу Rekognition загрузили 25 тыс. лиц арестованных, а также фотографии членов калифорнийского законодательного собрания. И ПО обнаружило 26 совпадений.
Еще одна причина критики — существующие программы плохо распознают лица чернокожих женщин и детей.
Американский Национальный институт стандартов технологии установил, что с изображениями белых женщин программа ошибается примерно в каждом десятитысячном случае, а с изображениями чернокожих женщин — в каждом тысячном, то есть в 10 раз чаще. В прошлом году к похожим выводам пришли ученые Массачусетского технологического института.
Сходный с калифорнийским мораторий могут в скором времени принять и власти штата Массачусетс. По мнению Мутале Нконде, научного сотрудника Центра по изучению интернета и общества при Гарвардском университете, это только начало. Госпожа Нконде считает, что тенденция будет распространяться по другим штатам, а потом запрет может быть введен на федеральном уровне.
«Это будет не первый случай, когда общество рассмотрело новую технологию и решило не использовать ее»,— отмечает Мутале Нконде. По ее мнению, немедленное введение моратория оправданно.
Большой брат не прощается
Правозащитники критикуют калифорнийские власти за введение временного моратория, а не постоянного запрета. Они считают, что проблема с подобными технологиями состоит не столько в их несовершенстве, сколько в том, что они в целом могут использоваться для тотальной слежки и привести к злоупотреблениям со стороны правоохранительных органов. За три года производители усовершенствуют технологии, и у противников распознавания станет меньше аргументов.
«Прямо сейчас более простой аргумент состоит в том, что эту технологию не нужно использовать, потому что в ней есть самые разные недостатки,— считает директор по технологическим проектам правозащитной организации Electronic Frontier Foundation Джереми Гиллула.
— Меня действительно беспокоит, что через три года компании, работающие над нательными камерами, смогут сказать, что они разобрались с недостатками… Откровенно говоря, я не хочу жить в обществе, в котором, если я просто пройду перед полицейским, будут записи, где я был».
Однако опасения, связанные с конфиденциальностью, могут быть более прохладно встречены общественностью и политиками. Как следует из проведенного в мае Pew Research Center опроса, 56% американцев доверяют правоохранительным органам при использовании ими технологий распознавания лиц. Глава отдела по этике и безопасности в отношении искусственного интеллекта Академии наук Китая И Чжэнь говорит о еще большей поддержке таких систем среди обычных граждан. По его данным, 83% китайцев и 80% американцев одобряют «надлежащее использование» (без уточнений) технологий распознавания лиц.
Крупнейший поставщик нательных камер для полиции Axon в июне заявил, что по рекомендации своего совета по этике не будет использовать ПО для распознавания лиц.
Однако многие считают, что для компании это лишь временное решение, связанное с технологическими проблемами. В то же время Amazon выступил против запретов. Компания поставила под сомнение проведенный ACLU эксперимент, указав на некоторые ошибки в настройках ПО, допущенные правозащитниками.
Запрет критикуют и объединения полицейских. Директор по юридическим вопросам Ассоциации шерифов штата Калифорния Кори Сальсильо обеспокоен тем, что у полиции отняли действенный инструмент борьбы с преступностью. «Даже временный запрет может снизить эффективность правоохранительных органов и ограничить их способность бороться с преступностью и предотвращать ее»,— заявил он.
Так ищет не только полиция
Вопрос о допустимости систем распознавания лиц встает и в других странах. В июле подобную программу свернула лондонская полиция. Специалисты из Университета Эссекса выявили «существенные недостатки» используемых технологий и усомнились в возможности использования их для доказательств в суде.
В августе дискуссия активизировалась. Это произошло после того, как частная компания, управляющая территорией вокруг вокзала Кингс-Кросс, сообщила об использовании распознавания лиц «в интересах общественной безопасности. Однако ранее компания не предупреждала о подобном контроле.
Этот случай привлек внимание не только общественности, но и регулятора, занимающегося вопросами соблюдения конфиденциальности. В ведомстве пообещали изучить проблему использования распознавания лиц частными фирмами и в случае необходимости принять меры. О своей обеспокоенности заявил и мэр Лондона Садик Хан. В результате на Кингс-Кросс отказались от дальнейшего использования технологии.
В Швеции в центре скандала оказалась школа в городе Андерсторп, которая тестировала систему распознавания лиц для контроля посещаемости. В итоге Шведское управление по защите данных оштрафовало местные власти на €18,5 тыс. за нарушение конфиденциальности.