Людей на видео можно заставить говорить что угодно. Разработчики из Стэнфорда и Принстона создали программу, которая выводит технологию deepfake на новый уровень. По имеющемуся видео алгоритм создает 3D-модель лица, считывает голос и замечает, какие движения мышц и губ с какими звуками сочетаются. В итоге программа создает новое видео, на котором человек говорит совсем не то, что в оригинальном ролике. Иногда для этих целей могут использоваться даже обычные фотографии и отдельная запись голоса.
Эксперты предупреждают: фейковые видео могут стать мощным орудием пропаганды и причиной насилия. Рисков действительно много, говорит обозреватель «Ъ FM», управляющий партнер портала fishki.net Михаил Гуревич: «Эти технологии опасны и будут использоваться в разного рода предвыборных кампаниях. Есть масса избирателей, которые смотря в большом количестве социальные сети и ведутся на такие сообщение, тем более, когда не только слышат голос, но и видят изображение. Это может использоваться для шантажа частных лиц. Также есть опасность использования подобных технологий в экономической сфере. Представьте, что с помощью deepfake представители той или иной компании делают какое-то заявление, и это в моменте влияет на стоимость акций какого-либо эмитента и вообще на стратегию игры трейдеров».
С помощью технологии deepfake злоумышленники также могут создать видео порнографического характера и использовать их для шантажа. Так уже произошло, например, с Эммой Уотсон, Кэти Перри, Тэйлор Свифт и Скартлетт Йоханссон. Пока специалисты могут отличить настоящий ролик от фейкового, а вот обычный человек вряд ли поймет, что это подделка, говорит глава представительства компании Check Point Software Technologies в России и СНГ Василий Дягилев: «Специалисты, которые занимаются определением достоверности видео, в любом случае могут понять, что оно не реальное. Сейчас очень большое внимание уделяется пикселизации — как они и сама картинка строятся на экране. И смотря насколько логично или нелогично устроено то или иное изображение, можно аутентифицировать, настоящее ли видео. Цифровой отпечаток человека может быть подделан. Например, оцифровали, превратили в некую комбинацию, которая имеет определенную последовательность чисел, которая является так называемой хеш-суммой. Существуют способы ее подделать».
Технологию deepfake используют и в киноиндустрии. Так, например, ей пользовались при съемках седьмой части саги «Форсаж». Актер Пол Уокер, исполнявший в фильме одну из главных ролей, погиб в автокатастрофе, когда были сняты еще не все сцены с его участием. Тогда IT- специалисты создали его цифровую копию.