С подменным успехом
Компании множат системы распознавания дипфейков
Компании разрабатывают новые решения по выявлению сгенерированных изображений, видео, голоса и запрещенного контента. Теперь подобный сервис выводит на рынок MTS AI. По итогам прошлого года число мошенничеств с использованием дипфейков выросло более чем на10%.
Фото: Иван Водопьянов, Коммерсантъ
MTS AI (входит в МТС) разработала сервис для выявления дипфейков с подменой и генерацией лица, сгенерированных изображений и голоса, а также поиска запрещенного контента, в котором показывают алкоголь, наркотики, оружие и экстремистскую символику, рассказали “Ъ” в компании. Там ожидают, что сервис будет использован для модерации контента в соцсетях и на медиаплатформах, для проверки подлинности участников ВКС и выявления поддельных обращений от имени компании.
Дипфейк — технология синтеза контента, основанная на машинном обучении и искусственном интеллекте. Она позволяет накладывать фрагменты контента на исходное изображение, подменяя лицо и голос на видео или звуковой дорожке.
По словам представителя MTS AI, система анализирует видео, аудио или изображения с помощью нейросетей. «В случае с дипфейками нейросети выявляют несоответствия, которые обычно не видны человеку,— неправильные тени или неестественные движения лицевых мышц, особенности тембра голоса или шумы»,— объясняет он. Для создания решения были использованы разработки MTS AI и решения VisionLabs (99% принадлежит МТС ИИ), уточняют в компании.
В MTS AI утверждают, что точность выявления дипфейков составляет в среднем 97,5%. В компании отказались раскрыть размер вложений в проект и ожидаемый объем продаж, уточнив только, что в 2025 году «минимум 10% выручки VisionLabs должно приходиться на продажу решения по выявлению дипфейков». По данным «СПАРК-Интерфакс», выручка ООО «Вижнлабс» в 2023 году составила 1,3 млрд руб.
В «Сбере» говорят, что у них есть продукты, «которые выявляют дипфейки с точностью 98%». В пресс-службе онлайн-кинотеатра Wink (совместное предприятие «Ростелекома» и НМГ) рассказывают “Ъ”, что у них есть решение, которое анализирует прямой эфир для выявления вмешательства и фейков, точность которого «превышает 80%». Компания «рассматривает» его вывод на коммерческий рынок. В Wink также «прорабатывают расширение использования ИИ для выявления контента, запрещенного законодательством». В NtechLab, АНО «Диалог регионы», у которых есть подобные решения, не ответили “Ъ”.
Максут Шадаев, глава Минцифры о причинах киберинцидентов, ноябрь 2024 года, «Российская газета»:
«Часть сотрудников перестроились на то, что мы находимся в условиях войны, а часть до сих пор считают, что с ними ничего не случится».
Появление новых подобных продуктов происходит на фоне роста числа атак с использованием дипфейков. Так, в финансовом секторе оно выросло на 13% в 2024 году, до 5,7 тыс. случаев, а их успешность достигает 15–20% инцидентов (cм. “Ъ” от 10 октября 2024 года). «Число таких атак выросло более чем на 10% за год и составило десятки тысяч случаев»,— говорит ведущий эксперт по сетевым угрозам компании «Код безопасности» Константин Горбунов.
Рост числа мошенничеств подтверждают и в ГК «Солар». «Аудио- и видеодипфейки в 2024 году были поставлены на поток, так как преступники усовершенствовали технологии их создания»,— говорит руководитель R&D-лаборатории Центра технологий кибербезопасности компании Максим Бузинов. Гендиректор Smart Engines Владимир Арлазаров добавляет, что технология дипфейков «стала настолько совершенна, что даже специалист не способен ее детектировать, но алгоритмы машинного обучения способны увидеть специфические искажения».
Тем не менее высокого спроса бизнеса на решения по выявлению дипфейков пока не приходится ожидать, говорит руководитель AI-продуктов Just AI Алексей Борщов: «Многие компании не осознают проблемы или считают, что находятся вне зоны риска. В таких условиях сложно ожидать активного внедрения подобных сервисов».