Интеллект получает метку
Как может работать система маркировки созданного нейросетью контента
В России будут маркировать контент, созданный нейросетью. Отечественные сервисы станут автоматически помечать сгенерированные с помощью искусственного интеллекта материалы четкими и заметными графическими знаками. Документ на эту тему уже разрабатывается в парламенте, сообщил член комитета Госдумы по информационной политике Антон Немкин. По его словам, бесконтрольное развитие нейросетей несет в себе опасность, например, нарушает авторские права, генерирует вымышленные факты и создает дипфейки.
Стихийное продвижение технологий действительно приводит к увеличению числа мошенников, отметил начальник управления киберразведки и цифровой криминалистики Angara Security Никита Леокумович: «Если не контролировать развитие искусственного интеллекта, то он может начать попадать в такие области, в которых бы его использование нарушало некие нормы морали или права человека. Это уже происходит. Злоумышленники, безусловно, маркировать свои изображения не будут. Допустим, им нужно вызвать какой-то эмоциональный всплеск у своей жертвы: они могут сгенерировать картинку последствий какого-то сильного бедствия, и она будет настолько реалистична, что пользователь примет ее за настоящую.
Большое количество исходных кодов нейросетей есть в открытом доступе. Многие люди могут создать модель такого ИИ. В какой-то определенный момент может произойти так, что многие станут использовать этот искусственный интеллект, чтобы совершать какие-то преступления.
Маркировка должна касаться всего контента, производимого нейросетями. Это и картинки, и видео, и текст. Сейчас уже есть бесплатные и платные сервисы, куда можно загрузить изображение, и алгоритм, который основан также на ИИ, скажет вам, сгенерирована эта картинка либо создана человеком. При неконтролируемом развитии нейросетей мы можем прийти к такому моменту, когда злоумышленники обойдут и такие инструменты».
В 2023 году в российском сегменте интернета было выявлено 12 млн дипфейков, посчитали в компании «Диалог Регионы». Там ожидают, что в 2024-м их количество увеличится до 15 млн. Если требования к маркировке не будут выполнены, то платформам будет грозить блокировка, допускает руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле:
«Если речь о видеоролике, то, видимо, это должен быть логотип, который встраивается без возможности его вырезать, какой-то водяной знак. Если же речь о тексте, то с этим вопрос сложнее. Пользователь может его просто скопировать и использовать по назначению. Но можно так же встраивать какой-то код, чтобы при копировании появлялась оговорка о том, что контент создан искусственным интеллектом.
Думаю, что в итоге обязанность будет просто возложена на компании, которые владеют платформой, программой, которая предоставляет доступ пользователям. Программа должна будет автоматически маркировать создаваемые произведения.
В случае неисполнения этого требования доступ к этому сервису, вероятно, будет ограничиваться по аналогии с полномочиями Роскомнадзора. Может быть, ему это и будет предоставлено, он может ограничивать доступ к этим платформам, возбуждать административные дела, привлекать к ответственности, налагать штрафы и так далее».
Маркировка материалов, созданных с использованием нейросетей, повлияет на рекламный рынок и может негативно сказаться на имидже некоторых компаний, не исключает управляющий партнер агентства PRT Edelman Глеб Сахрай. По его словам, все будет зависеть от вида графических символов: «Там нужно изучать уже сам закон, насколько большая это будет надпись, какие она чувства будет вызывать у людей. Пока конкретный документ не появится, сложно предвидеть последствия: начнут ли рекламные агентства меньше использовать нейросети, вернутся ли к старым добрым дизайнерам и копирайтерам или нет.
Но в целом появятся огромные объемы контента. Нейросеть выпускает его за 3 копейки. Я считаю, что люди продолжат создавать контент для людей, просто это будет специальный контент, и воспринимать его будут тоже каким-то специальным образом, через эмоции».
В Евросоюзе подобный закон действует с марта 2024-го. Американская компания OpenAI сообщала, что маркирует все изображения, которые создаются ChatGPT, а сервис TikTok начал помечать короткие видео, сгенерированные встроенными алгоритмами.
С нами все ясно — Telegram-канал "Ъ FM".