Как выяснил “Ъ”, Роскомнадзор заинтересовался разработкой НИУ ИТМО в области распознавания лжи по видеозаписи с помощью искусственного интеллекта. Прототип решения прошел тестирование в преддверии выборов в Сенат США. В ведомстве допускают, что система может использоваться для выявления «дипфейков». Но участники рынка сомневаются в перспективности разработки, полагая, что вероятность ложных срабатываний будет слишком высока.
Фото: Александр Миридонов, Коммерсантъ
Специалисты Национального центра когнитивных разработок (НЦКР) ИТМО разрабатывают для подведомственного Роскомнадзору Главного радиочастотного центра (ГРЧЦ) сервис Expert на основе искусственного интеллекта (ИИ), который позволит проверять видеозаписи выступлений на предмет лжи и манипуляций. Об этом рассказали источники “Ъ” и подтвердили в ведомстве. По словам одного из собеседников “Ъ”, прототип был представлен Роскомнадзору на заседании экспертного совета ГРЧЦ по ИИ в июле: «Присутствовал глава Роскомнадзора Андрей Липов, которого решение заинтересовало. Он попросил как можно скорее передать его ведомству на тестирование».
Сервис позволяет анализировать видеозаписи на предмет лжи и представляет интерес для оперативного выявления «дипфейков» (deepfake), уточнил глава Научно-технического центра ФГУП ГРЧЦ Александр Федотов: «Если ИТМО сможет представить устойчиво работающую технологию в виде готового продукта, ГРЧЦ рассмотрит возможность ее применения».
Deepfake — метод синтеза данных, который позволяет заменять в оригинальных видеороликах элементы изображения. Технология позволяет создавать фейковые видеозаписи с заявлениями известных личностей, в том числе политиков.
Как пояснили в ИТМО, система Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов.
Система «заточена на работу с английским языком, но показатели уверенности, агрессивности, конгруэнтности можно извлечь на любом языке».
Руководитель научно-исследовательской лаборатории «Когнитивная невербалика» НЦКР ИТМО Олег Басов пояснил, что английский выбран как самый распространенный язык: «Доработка системы для получения текста из речи на русском языке стоит в ближайших планах». Система прошла предварительное тестирование в преддверии выборов в Сенат США, рассказал Олег Басов: «Мы проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии и уверенности в себе». По его словам, в заявлениях трех кандидатов система обнаружила скрытую агрессию, а одного из них удалось уличить во лжи.
Сейчас более 90% российских разработок, связанных с ИИ, построены на основе скачанных открытых зарубежных библиотек вместе с дата-сетами для их обучения, объясняет топ-менеджер профильной IT-компании: «Поэтому разработка ИТМО адаптирована для английского языка. Для переобучения под русский потребуется большой массив данных и затраты». Аналогичные разработки велись и на Западе: в 2017 году в США Университет Мэриленда и Дартмутский колледж создали нейросеть, распознающую ложь, которую обучали на видеозаписях судебных процессов. Распознаванием лжи в суде через ИИ также занималась американская Innocence Project, используя для анализа Amazon Mechanical Turk.
Российские разработчики уже тестируют решения для распознавания «дипфейков».
У VisionLabs есть экспертиза в разработке детекторов «дипфейков» лиц, и они результативны, говорят в компании: точность работы составляет 94–100% Но сейчас качество работы нейросети оценивается в плоскости теории вероятности, говорит собеседник “Ъ” на IT-рынке: «Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу». Кирилл Ляхманов из «ЭБР» подчеркивает, что сама идея анализа «правдивости» или «ложности» утверждений по косвенным признакам, связанным с поведением человека, не выдерживает никакой критики: «Любые виды "детекторов лжи" не признаются доказательством в судах большинства стран».