Договорится ли ИИ до тяжбы?
Тенденции
Искусственный интеллект активно внедряется в бизнес-процессы и общественные отношения. И уже сейчас юристы предвидят возможные казусы. В России пока нет судебных споров и не сформирована правоприменительная практика по вопросу использования нейросетей, чего не скажешь о Западе. Опрошенные Guide юристы рассказали о рисках, которые могут возникнуть в перспективе, и о том, как уже сейчас можно обезопасить себя.
Юристы рекомендуют компаниям разработать прозрачные правила использования нейросетей, чтобы очертить работникам границы дозволенного и снизить риски
Фото: Евгений Павленко, Коммерсантъ
Юристы рекомендуют компаниям разработать прозрачные правила использования нейросетей, чтобы очертить работникам границы дозволенного и снизить риски
Фото: Евгений Павленко, Коммерсантъ
В России нет судебных дел, связанных с нарушением законодательства при использовании ИИ, так как нет такого административного и уголовного законодательства как класса. Несмотря на это, работа с нейросетями все же может «подвести» под суд.
«Причем помимо очевидного — споров об авторском праве на контент — могут быть и другие иски, например, от лиц, чьи голоса использовались для обучения или озвучки нейросети. Такие кейсы есть уже и в России. Громких споров по интеллектуальной собственности в связи с использованием нейросетей в России пока нет, но за границей такая практика активно развивается. Сейчас, например, все внимательно следят за иском The New York Times к разработчикам ИИ, которые используют статьи издательства для обучения нейросетей»,— комментирует Валерия Эйстрах, старший юрист практики технологий, медиа и телекоммуникаций юрфирмы «Меллинг, Войтишкин и партнеры».
Юристы в США уже давно пробуют на прочность американскую систему прецедентного права. «Надо отметить, что там есть более чем вековой пласт бизнес-активности, связанной с выдумыванием и отсуживанием значительных сумм денег по любому поводу. Например, фотоагентство Getty Images обвинило фирму Stability AI в нелицензионном использовании более 12 млн своих фотографий для обучения системы генерации Stable Diffusion AI. Производитель нейрочипов Nvidia Corp. обвинялся в том, что использовал более 196 тыс. книг для обучения своей платформы NeMo AI без разрешения правообладателей. В результате судебного разбирательства платформа NeMo была заблокирована. Газета The New York Times обвинила OpenAI и Microsoft, в том, что миллионы статей, защищенных авторским правом, были неправомерно использованы для обучения языковых моделей. И количество подобных дел перевалило уже за сотни»,— приводит примеры Павел Терелянский, заместитель начальника управления цифровой трансформации РЭУ им. Плеханова.
Насущным вопросом в мировой практике является разрешение дилеммы о том, охраняются ли авторским правом произведения, которые создаются искусственным интеллектом. «Как известно, текущие версии нейросетей работают по принципу обучения на чужих произведениях, поэтому нередко авторами ставится вопрос использования их произведений для того, чтобы обучить нейросеть и чтобы она стала конкурентом автора. К примеру, недавно в США завершилось судебное разбирательство в отношении компании Ross Intelligence, которая использовала материалы, защищенные авторским правом, для обучения искусственного интеллекта. Суд признал такое использование незаконным»,— говорит руководитель направления «Разрешение It&|р споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле.
Еще одна проблема, связанная с нарушением авторских прав, возникнет, когда правообладатели будут находить в сгенерированных нейросетью сущностях фрагменты своих произведений. «Процент разрешенного использования фрагментов для ИИ пока законодательно не определен, значит, правообладатели могут возмущаться, обнаружив в сгенерированном контенте даже доли процента своих произведений»,— акцентирует господин Терелянский.
Следует отметить, что генеративные алгоритмы не создают ничего нового, они очень хорошо «миксуют» существующие фрагменты. Обучение нейросети — процесс долгий и дорогостоящий, а главное — необратимый, то есть, если при обучении сети некий фрагмент взят в качестве образца, то он становится неотъемлемой частью сети. И правообладатель может с полным правом запретить использовать всю обученную сеть к использованию, шантажируя тем самым создателей сети.
По пути урегулирования
На данный момент российское законодательство постепенно адаптируется к ситуации. В 2023 году Минцифры России предложило проект «дорожной карты» по развитию и регулированию искусственного интеллекта, который включает законодательные инициативы, направленные на регулирование использования ИИ и смежных технологий. Это включает в себя как защиту данных, так и аспекты, связанные с ответственностью за результаты работы ИИ.
Кроме того, российский законодатель в текущий момент озабочен решением проблем всплеска мошенничества с использованием нейросетей (генерация голоса и видео). Предлагается ужесточить нормы Уголовного кодекса и признать использование ИИ при совершении преступления отягчающим фактором.
Подход российского законодателя по сравнению с европейскими нельзя назвать несовершенным. «Данная сфера относится к сфере инноваций, которые не терпят детального и всестороннего правового регулирования, установления жесткой ответственности. В результате жесткого регулирования на первых этапах развития существует риск того, что бизнес, занимающийся данной технологией, просто не появится. К примеру, в России известны развитые на высоком уровне технологии от "Яндекса", "Сбера", "Мегафона" и других компаний. В Европе подобных технологий пока не наблюдается»,— указывает господин Шицле.
Лучше сразу подготовиться
Екатерина Кутузова, практикующий юрист, адвокат Адыгейской республиканской коллегии адвокатов, отмечает следующие риски, которые могут быть рассмотрены в юридическом поле. Во-первых, отсуживание авторства контента и споры об интеллектуальной собственности. В России авторское право регулируется частью четвертой Гражданского кодекса РФ. Во-вторых, создание дипфейков. Использование нейросетей для создания дипфейков может вызвать серьезные юридические последствия, особенно если дипфейки используются в мошеннических или диффамационных целях. Законодательство России может рассматривать такие действия как нарушение прав на изображение и охрану чести и достоинства (статья 152 ГК РФ). В-третьих, слив конфиденциальной информации. Если нейросеть используется для обработки конфиденциальных данных, существует риск утечки этой информации. Нарушение закона «О персональных данных» (152-ФЗ) может привести к серьезным санкциям и штрафам. Нарушение конфиденциальности данных требует строгого соблюдения норм, касающихся обработки и защиты информации.
Юристы дают следующие рекомендации по недопущению юридических казусов и возможных тяжб: прояснение прав на результаты работы (компании должны четко определять в договорах, кому принадлежат права на контент, созданный с помощью нейросетей), защита данных (необходимо внедрять эффективные меры защиты конфиденциальной информации, в том числе шифрование и контроль доступа), обучение сотрудников (регулярное обучение персонала по юридическим аспектам использования нейросетей поможет снизить риск юридических проблем).
«Для того чтобы избежать нарушения закона, информацию, полученную или сгенерированную нейросетью, необходимо перепроверять. Обычным способом с помощью обычных поисковых систем. Не отдавайте принятие важных решений искусственному интеллекту. Перед использование нейросети стоит изучить пользовательское соглашение в части распределения ответственности нарушение прав третьих лиц»,— предупреждает Илья Васильчук, судебный юрист, эксперт по безопасности электронных сделок.
В целом юристы дают совет, что компаниям стоит внимательно следить за изменениями в законодательстве в сфере искусственного интеллекта и за практикой.