Европа поставит распознавание лиц на место
Законопроект ЕС призван жестко ограничить использование ИИ c дистанционной биометрической идентификацией
Сегодня, 21 апреля, Еврокомиссия представила первый в мире комплексный законопроект, посвященный ужесточению и детальному регулированию систем искусственного интеллекта (ИИ), в том числе с распознаванием лиц. ЕС разделит технологии ИИ по степени риска для безопасности, жизни и прав граждан и будет строго ограничивать или запрещать применение технологий, если они представляют высокий риск. Инициативы ЕС представлены на фоне их массового применения властями таких стран, как Китай и др., и бурной общественной дискуссии о корректности и законности их применения в таких странах, как США.
Представленные сегодня инициативы ЕС вынесены на рассмотрение общественности, Европарламента и стран—членов ЕС. В случае одобрения они получат прямое действие на всей территории ЕС. Ключевым элементом законопроекта является разделение систем ИИ по степени риска для безопасности, жизни и прав граждан.
К системам ИИ с неприемлемо высоким риском предлагается относить системы, которые «манипулируют человеческим поведением, влияют на свободу выбора человека,— например, игрушки или устройства, которые поощряют опасное поведение несовершеннолетних; либо системы, которые позволяют правительствам осуществлять так называемый социальный скоринг,— моделирование поведения человека или его классификацию при помощи ИИ-анализа его поведения в соцсетях, используя такие данные, как вес, пол, возраст, внешность, место рождения и/или проживания, место работы, должность и т. п.».
Использование систем ИИ с неприемлемо высоким риском будет запрещено в ЕС.
К системам ИИ с высоким риском ЕС предлагает применять строгое ограничение и жесткий контроль до того, как такие системы будут выведены на рынок. К ним ЕС предлагает отнести все системы с удаленной биометрической идентификацией; автоматическую оценку кредитоспособности гражданина, которая может влиять на отказ в предоставлении кредита; используемые правоохранительными органами системы ИИ, которые могут ущемлять базовые права человека, например, оценка достоверности доказательств.
Говоря о системах дистанционной биометрической идентификации, законопроект уточняет, что применение таких систем должно быть строго ограничено узкими задачами — например, «поиском пропавших детей, предотвращением неминуемой террористической угрозы, поиском и идентификацией находящегося в розыске преступника или террориста» и т. д. При этом использование таких систем все равно должно получить специальное одобрение со стороны судебного или другого независимого органа и должно быть ограничено по времени и месту.
Системами ИИ с ограниченным риском ЕС предлагает считать системы со специфическими прозрачными задачами, например чатботы.
Регулирование таких систем должно осуществляться так, чтобы «пользователь получал достаточную информацию и понимал, что он общается с машиной, получая своевременный выбор в том, чтобы продолжать такое общение или прекратить его».
К системам с минимальным уровнем риска предлагается отнести игровые приложения с применением ИИ или спам-фильтры. В законопроекте нет предложений о том, как регулировать такие системы.
Законопроект ЕС по комплексной оценке рисков и строгому регулированию систем ИИ, в том числе с дистанционной биометрической идентификацией, представлен на фоне острых споров о законности применения таких технологий в ряде стран мира и растущей тревоги правозащитников в связи с этим. Особенно распространены системы распознавания лиц в Китае, который и в целом известен активным использованием технологий для слежки и надзора за гражданами.
По данным IHS Markit, уже сейчас в Китае установлено 176 млн камер, а к 2022 году их число вырастет до 2,76 млрд, в 2018 году почти половина всего бизнеса по распознаванию лиц приходилась на Китай. Китайские компании активно продают такие системы за рубеж, в том числе в Зимбабве, Уганду, Казахстан, Австралию, Мьянму, что некоторые правозащитники назвали «экспортом авторитаризма». Жители Китая обеспокоены таким положением вещей.
Как следует из опубликованного в декабре опроса организации Nandu Personal Information Protection Research Center, 76% китайцев предпочли бы традиционные способы идентификации личности. 80% опрошенных опасаются утечки данных, 57% — возможности отслеживания их перемещений, 84% опрошенных хотели бы иметь возможность посмотреть собранные данные и при необходимости потребовать их удаления. Правозащитники уже не первый год говорят о возможности использования ее для тотальной слежки и преследования несогласных.
Директор британской правозащитной организации Big Brother Watch Силки Карло назвала системы распознавания, вне зависимости от того, насколько совершенными они будут, «идеальным инструментом угнетения» и добавила, что «в крайнем случае, вы можете оказаться в обществе, где у вас нет шанса на анонимность».
С подозрением к таким технологиям в последнее время стали относиться и власти некоторых стран и регионов. Запрет на их использование уже ввели несколько штатов США — первой была Калифорния, в сентябре прошлого года установившая трехгодичный мораторий на применение таких систем полицией и другими госслужбами.
Один из авторов законопроекта — вице-президент управления ЕС по вопросам цифровой политики Маргрет Вестагер отметила, что «эти стандарты использования ИИ могут подготовить почву для этичного использования этих технологий во всем мире… Новые правила будут работать там, где это нужно, когда на кону стоят безопасность и фундаментальные права граждан ЕС». Ранее она уже подчеркивала, что «искусственный интеллект должен служить людям, поэтому его применение должно всегда соответствовать правам человека».