Лучшая защита от deepfake — вакцинация
Прекратить распространение фейковых видео предлагают за счет «ментальных антител»
Технология deepfake, о которой мир впервые услышал в прошлом году, стремительно набирает популярность. Ее суть сводится к использованию искусственного интеллекта для создания фейковых видео или аудио. Бороться же с этой проблемой собираются тремя способами: законодательным, технологическим и при помощи ментальной вакцинации населения.
Deepfake — технология обработки видео, аудио или фотоматериалов с помощью искусственного интеллекта, который способен имитировать мимику и голос реального человека. Согласно недавнему исследованию Deeptrace, с декабря 2018 года количество фейковых видеороликов, созданных при помощи технологии deepfake, выросло с 8 тыс. до 14,7 тыс. Deepfake может оказаться реальной проблемой уже на ближайших политических выборах, ведь с ее помощью злоумышленники смогут заставить фальшивых кандидатов говорить на видео все что угодно.
Потому власти, технологические корпорации и ученые объединяют усилия, чтобы бороться с новой угрозой. И у каждого из них свой подход.
Первый вариант борьбы — запрет. В мире уже есть прецеденты создания законов против deepfake — таковыми отметились власти американских штатов Калифорния и Техас. Причем губернатор Калифорнии Гэвин Ньюсом подписал в начале октября сразу два закона в этой сфере. Первый из них запрещает создание и распространение фейковых видео-, аудио- или фотоматериалов с политиками в период за 60 дней до любых выборов. Второй призван защитить рядовых граждан и дает им возможность подавать судебные иски на создателей фейковых материалов, если их изображения были использованы на порносайтах без их ведома.
По данным Deeptrace, 96% фейковых роликов с использованием технологии deepfake приходятся на порнографические материалы.
А жертвами таких роликов могут оказаться как знаменитости, так и обычные люди.
Второй подход — технологический. Он подразумевает создание некоей контртехнологии, способной остановить эпидемию deepfake-материалов. Безусловно, Facebook, Twitter, Google и другие интернет-компании могли бы, как и сейчас, стараться просто удалять фейковые видео- и фотоматериалы. Но учитывая стремительное развитие самой технологии и увеличивающееся количество таких материалов, делать это со временем будет все сложнее и в конце концов превратится в невыполнимую задачу. Только на YouTube ежедневно просматриваются около 5 млрд видеороликов. Потому корпорации объединяют свои усилия с учеными.
Так, Google опубликовала примеры использования технологии deepfake, чтобы помочь исследователям с разработкой технологий, способных уловить монтаж на фото или видео. А Facebook, Microsoft и Amazon учредили программу выдачи грантов ученым, работающим над решением этой проблемы. «Если Google или Facebook разработают технологию распознавания deepfake и она будет работать в 95% случаев, то это уже будет лучше, чем то, что мы имеем сейчас»,— цитирует Financial Times профессора Университета Мюнхена Маттиаса Ниснера.— Однако если эта технология в определенный момент перестанет работать, то у них будут огромные проблемы. На месте технологической компании я бы остерегался от выкладывания чего-то, что не работает в 100% случаев».
На прошедшей недавно в Лондоне конференции ученых, посвященной изучению поведения людей, профессор психологии Кембриджского университета Сандер ван дер Линден заявил, что лучшим способом справиться с проблемой распространения deepfake будет выработка у людей «мыслительных антител» против дезинформации и выработка «стадного иммунитета». Профессор полагает, что людей стоит обучать созданию фейковых новостей и различного рода материалов, используя для этого обучающие онлайн-игры. «Если вы приходите на шоу фокусов, то в первый раз вас удается обмануть. Но когда люди сами проделывают фокус, то они знают, как это работает»,— заявил профессор. Правда, как отмечают другие ученые, при массовом распространении фейковых новостей по ходу такого обучения населения может возникнуть другая проблема — люди перестанут верить в правду вовсе.
Моральный кодекс строителей интеллекта
Президент РФ Владимир Путин подписал в середине октября указ об утверждении национальной «Стратегии развития искусственного интеллекта на период до 2030 года». Значительная часть документа посвящена созданию благоприятного правового режима для развития технологий, включая выработку этических норм взаимодействия человека и искусственного интеллекта. Стратегия носит рамочный характер — конкретные целевые показатели и перечень мероприятий по их достижению установит федеральный проект в составе нацпрограммы «Цифровая экономика», который должен быть подготовлен до 15 декабря этого года.