Метки ставить негде

Как могут маркировать контент от нейросетей в России

Российские власти задумались о необходимости маркировки контента, который создан с помощью нейросетей. Сегодня искусственный интеллект уже способен написать настолько грамотный текст, что это может ввести людей в заблуждение, а также повышает вероятность фишинговых атак. «Ъ-Review» разбирался, как может быть реализована такая маркировка и что она принесет как IT-индустрии, так и простым пользователям.

Фото: Евгений Павленко, Коммерсантъ

Горе от ума

О том, что в Госдуме ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей, член комитета ГД по информполитике Антон Немкин сообщил 14 мая. По его словам, развитие сервисов на основе искусственного интеллекта (ИИ) без необходимого контроля в отдаленной перспективе несет в себе целый ряд рисков. «Подобное развитие ИИ-сервисов несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных»,— сказал господин Немкин.

Депутат предположил, что маркировка будет осуществляться при помощи графических или водяных знаков. По его словам, она должны быть ненавязчивой, но при этом четкой и заметной. Антон Немкин добавил, что российские ИИ-сервисы должны автоматически маркировать сгенерированные тексты.

«Сберу» и «Яндексу», по его словам, задуматься о технологии маркировки нужно уже сейчас. Депутат уточнил, что пока неясно, какая экспертиза позволит распознать степень участия нейросети и человека в одном тексте. Он также предложил наделить новыми полномочиями Роскомнадзор, чтобы ведомство занималось выявлением деструктивного контента, созданного при помощи ИИ.

Вопрос ребром

В связи с ростом использования генеративных моделей в интернете начинает появляться много искусственно сгенерированного контента в различных формах — текстовом, видео и аудио, говорит в беседе с «Ъ-Review» старший исследователь данных в «Лаборатории Касперского» Дмитрий Аникин. По его словам, сами по себе генеративные модели не плохие и не хорошие: важно то, как они применяются на практике. Между тем на них все чаще обращают внимание злоумышленники — например, для реализации скам-схем. «Развитие ИИ-технологий делает любой контент, созданный нейросетями, практически неотличимым от того, что делает человек. Это дает широкий простор для различных манипуляций, фейков и подлогов»,— отмечает ведущий эксперт по сетевым угрозам и web-разработчик «Код безопасности» Константин Горбунов.

По словам специалиста, учитывая, что ИИ-сервисы сегодня доступны практически всем, хакеры и обычные интернет-хулиганы могут создавать с их помощью любой контент, который будет влиять на общество. Если государство обяжет общественные ИИ-сервисы автоматически маркировать созданный нейросетями контент, пользователи будут понимать, что увиденная ими картинка или видео — ненастоящие.

В свою очередь партнер Лиги цифровой экономики Александр Данилов указывает, что новый закон позволит создать определенные рамки и повысит уровень безопасности — маркировка контента от нейросетей будет информировать потребителя. Также она позволит урегулировать этические вопросы распространения контента с использованием визуальных образов или голосов известных личностей и сформирует ожидания у аудитории, для которой предназначается информация.

Инструмент для хакеров

Сегодня нейросети открывают перед злоумышленниками большие возможности: к примеру, преступники активно используют аудио-дипфейки (голосовые подделки), которые присылают пользователям в мессенджерах, в качестве одного из этапов многоуровневых схем телефонного мошенничества. Кроме того, по словам Дмитрия Аникина, специалисты по кибербезопасности неоднократно встречали в сети дипфейк-видео, на которых якобы известные личности, в том числе предприниматели, предлагают пользователям инвестировать в те или иные проекты (на деле это оказываются скам-схемы).

«Дипфейки могут использоваться профессиональными хакерами как средство поддержки психологических операций для дестабилизации общества, а в частных случаях выступать как средство против единичных целей — например, при кибербуллинге»,— говорит Константин Горбунов. Как объясняет эксперт, нередко мошенники применяют нейросети для создания правдоподобных, «человеческих» текстов. ИИ позволяет сделать их мультикультурными — то есть автоматически переводит фишинговые письма на разные языки. До появления продвинутых нейросетей именно малограмотность была одной из проблем мошенников: из-за нее пользователи легко разоблачали подлог.

Теперь же ИИ способен написать вполне человеческий и грамотный текст, что повышает вероятность успешной фишинговой атаки, а благодаря быстрому переводу — расширяет атакуемую «поверхность», подчеркивает Константин Горбунов. При этом со временем риски, которые несут в себе нейросети на службе хакеров, будут лишь расти, считает Александр Данилов.

Механизмы маркировки

Единого мнения о том, как именно должна быть реализована маркировка контента от нейросетей, в экспертном сообществе пока нет. По мнению ведущего юриста Европейской юридической службы Юрия Ганзе, скорее всего, будут разработаны или применены уже существующие технологии, позволяющие наносить водяные знаки на контент, созданный либо измененный ИИ,— подобные технологии маркировки уже используются в Китае. «При этом не стоит забывать, что в российском законодательстве уже есть случаи маркировки информации, размещенной в интернете: к примеру, обязательной маркировке подлежит размещаемая там реклама»,— поясняет собеседник «Ъ-Review».

В рекламе, размещаемой в сети, должна быть пометка «реклама», указание на ее рекламодателя, а также на сайт с данными о нем. При этом в интернете можно распространять только ту рекламу, которой оператор рекламных данных присвоил идентификатор. Рекламодатель или рекламораспространитель может обратиться к оператору рекламных данных за получением идентификатора в рамках исполнения договорных отношений.

«Контент, созданный нейросетями, может быть маркирован аналогичным способом. Вероятно, что каждый контент будет маркироваться каким-либо знаком, а также ему будет присваиваться идентификатор соответствующим оператором»,— считает ведущий юрист Европейской юридической службы Олег Абраменков. Также эксперт не исключает, что на Роскомнадзор возложат функции регулятора распространения информации, созданной с помощью искусственного интеллекта, а также регистрации алгоритмов.

Выйдут из тени

Вне зависимости о того, какой именно вариант маркировки контента от нейросетей введут в России, это неизбежно повлечет за собой последствия для IT-индустрии. Однако, как отмечает Александр Данилов, все будет зависеть от того, какая именно информация будет подлежать маркировке: если заставить такие корпорации, как «Яндекс» или «Сбер», маркировать каждый ответ нейросетей, это может стоить им миллионы или даже миллиарды рублей — ведь придется хранить дополнительную информацию.

«При этом есть несколько аналогов генеративных сетей, которые свободно распространяются. А злоумышленники вряд ли будут задействовать нейросети от известных компаний для своих схем»,— говорит эксперт. В частности, по словам собеседника «Ъ-Review», хакеры вполне могут использовать «мини-версии» той или иной генеративной сети, развернутой за пределами России. Поэтому важно провести серьезную работу по созданию решений, которые смогут анализировать информацию в заданном периметре на предмет использования или распространения контента с применением ИИ.

Если же говорить о том бизнесе, который может использовать искусственный интеллект для генерации контента, например о рекламной индустрии, то там уже около двух лет каждый креатив помечается согласно закону о маркировке интернет-рекламы, напоминает Александр Данилов. Поэтому и новая маркировка для них не должна добавить проблем — правда, проблемы могут возникнуть из-за ее отсутствия.

По мнению Олега Абраменкова, скорее всего, за подобные нарушения ответственность будет наступать по аналогии с нарушением маркировки интернет-рекламы. По части 16 статьи 14.3 КоАП РФ за него предусмотрены штрафы в 30–100 тыс. руб. для граждан, в 100–200 тыс. руб.— для должностных лиц и в 200–500 тыс. руб.— для юрлиц.

Возврат к реальности

В настоящее время законопроекты о маркировке ИИ-контента в разных странах в основном призваны бороться с дипфейками. И применение специальных знаков в России в первую очередь поможет пользователям более четко понимать, где реальность, а где выдумка ИИ и возможный подлог со стороны хакеров, считает Константин Горбунов. «Не исключено, что маркировка также поможет в борьбе с недобросовестными продавцами. Например, они могут с помощью ИИ создать яркую рекламу какого-либо товара, а на деле окажется, что продукт не имеет заявленных характеристик»,— предполагает эксперт.

В таком случае, по его мнению, увидев ИИ-маркировку, пользователи будут понимать, что представленное в рекламе может отличаться от реальности. Александр Данилов дополняет, что, ориентируясь на маркер, пользователь сможет самостоятельно решить для себя, насколько доверять той или иной информации.

По мнению Олега Абраменкова, маркировка также поможет сразу определять, с кем ведется общение — с живым человеком или же с ботом. Также в большинстве случаев она позволит более эффективно обеспечивать защиту авторских прав на объекты интеллектуальной собственности, используемые в обучении нейросетей.

«Возможен и такой вариант, что одни услуги после введения маркировки контента от ИИ станут дешевле, а другие исчезнут вообще: заказчик, обнаружив, что основная часть услуг оказана ИИ, либо откажется от них, либо решит такими же средствами сделать все сам»,— говорит Олег Абраменков.

Впрочем, все специалисты, опрошенные «Ъ-Review», сходятся на том, что главная цель, которой законодатели намерены добиться при помощи маркировки контента от нейросетей,— это уменьшение числа случаев вымогательства и мошенничества при помощи дипфейков, что должно сделать жизнь россиян безопаснее.

Этот текст — часть нового проекта ИД «Коммерсантъ», посвященного трендам бизнеса и финансового рынка. Еще больше лонгридов с анализом ключевых отраслей российской экономики, экспертных интервью и авторских колонок — на странице Review.

Павел Тихонов