Интеллект под подозрением
Британские полицейские опасаются ошибок и необъективности ИИ
По данным Королевского объединенного института оборонных исследований, британские полицейские опасаются, что широкое применение искусственного интеллекта (ИИ) в борьбе с преступностью повлечет за собой необъективную оценку рисков, ошибки в анализе данных и криминологическом прогнозировании. В частности, представители малообеспеченных групп населения могут быть отнесены ИИ к группе высокого риска только потому, что они чаще контактируют с социальными службами и их данные с большей вероятностью можно найти в государственных базах, на основе которых ИИ как раз делает анализ и прогнозы.
Исследование «Анализ данных и алгоритмическая погрешность в полицейской работе» было проведено Королевским объединенным институтом оборонных исследований по заказу Центра этики данных и инноваций (CDEI) в рамках подготовки Великобритании к широкому внедрению ИИ во все сферы жизни. Как отмечают авторы исследования, полицейские в Англии и Уэльсе все чаще используют в своей работе новейшие технологии, например распознавание лиц и анализ видеоматериалов, извлечение данных из мобильных телефонов, анализ данных из соцсетей, криминологическое прогнозирование, оценка индивидуальных рисков и т. п.
По словам экспертов, использование ИИ дает значительные преимущества, но в то же время вызывает серьезные вопросы с этической и юридической точек зрения из-за высокой вероятности ошибок и, как следствие, дискриминации в отношении отдельных лиц или групп лиц.
Но усиленное патрулирование тех районов, где, по оценке ИИ, высока вероятность совершения преступлений, оказалось более эффективным в снижении уровня преступности в конкретных районах, чем стандартное патрулирование всех районов подряд.
Более того, использование ИИ позволяло в два раза точнее прогнозировать места вероятного совершения преступлений по сравнению с обычным анализом, проводимым сотрудниками полиции на основании оперативных данных. Однако по какой-то причине эта форма анализа с помощью ИИ используется в полиции нечасто.
Чаще полиция прибегает к помощи ИИ для оценки индивидуальных рисков, то есть для определения вероятности совершения преступлений конкретным лицом — в таком случае возникает одна из проблем, на которые указывают авторы исследования. Как показывает опыт, криминологическое прогнозирование в отношении групп лиц имеет достаточно высокую степень точности, но в отношении отдельных лиц точность серьезно снижается.
Машина способна точно спрогнозировать то, что может происходить часто, регулярно и массово, но в других случаях «спотыкается».
А если, например, некое лицо было отмечено ИИ как представляющее высокий риск совершения правонарушения, то проверить, насколько верным был этот прогноз, удается не всегда — правоохранительные органы обычно принимают меры, чтобы у подозрительного лица в любом случае не было возможности совершить преступление.
Другая проблема состоит в том, что из-за большего объема данных о людях из слоев населения с низким уровнем социально-экономического благополучия, из проблемных районов и т. п. (а ведь именно на основе этих данных происходит машинное обучение) высока вероятность ошибки. ИИ будет искать преступников именно в этих группах населения.
Кроме того, не исключено влияние человеческого фактора. По словам одного из полицейских, опрошенных экспертами, «чернокожих мужчин чаще останавливают на улице и обыскивают, чем белых, и причина этого в субъективном человеческом восприятии. Но эта субъективная оценка потом попадает в базы данных и проявляется в результатах использования этих баз». В таком случае ИИ начинает прогнозировать не преступления, а полицейские операции. Как поясняет другой полицейский, «мы направляем значительные ресурсы в какой-то район, необязательно неблагополучный, и в результате получаем самоисполняющееся пророчество — просто потому, что в конкретном районе больше полицейских». То есть район станет рассматриваться ИИ как неблагополучный потому, что там больше полицейских, которые, разумеется, задерживают больше преступников.
Авторы доклада подчеркивают, что для эффективной работы машинного интеллекта в правоохранительной деятельности необходимы четкое регулирование, контроль, единые стандарты и использование данных научных исследований.
Сейчас же, по словам одного из полицейских, использование ИИ в работе правоохранительных органов подобно «лоскутному одеялу, оно не скоординировано, применяется в соответствии с разными стандартами в разных ситуациях, и результаты тоже получаются разными».
Правозащитники отмечают, что использование ИИ в этой области «чревато значительными» нарушениями прав человека. «Разработки национальных стандартов недостаточно, и необходимо запретить программы прогнозирования полицейской деятельности»,— заявила Financial Times представитель правозащитной организации Liberty Ханна Каучмен.