Спорный интеллект

Количество судебных разбирательств вокруг использования ИИ выросло

За год число судебных решений в спорах вокруг применения ИИ увеличилось на 60%. Основными категориями споров стали использование технологии для взыскания долгов, гранты и договоры на разработку IT-продуктов. Юристы говорят, что полноценного правового регулирования направления в РФ пока нет, как и устойчивых подходов в судебной практике. Поэтому судьям фактически не на что опираться при принятии решений. Но в то же время разбирательства могут «подготовить фундамент для изменения регуляторной среды».

Рисунок: Виктор Чумачев, Коммерсантъ

Рисунок: Виктор Чумачев, Коммерсантъ

С марта 2023 по март 2024 года российские суды вынесли 406 решений в спорах вокруг применения ИИ — на 60% больше год к году, говорится в исследовании RTM Group. Его авторы отмечают, что в анализируемом периоде из 165 судебных актов в 53% случаев требования были удовлетворены полностью или частично, а в 34% — отказано. Год назад ситуация была фактически обратной — 31% и 55,5% соответственно.

«Уменьшение числа удовлетворенных требований стало следствием увеличения числа исков, и говорить о тенденции пока не приходится. Устойчивые подходы в судебной практике пока не выработаны, в связи с чем судьи не имеют возможности опираться в своих решениях на аналогичные примеры»,— объясняет руководитель дирекции юрфирмы Vegas Lex Кирилл Никитин.

В исследовании называются и основные категории споров. Это:

  • предоставление грантов на разработку IT-продуктов с использованием ИИ;
  • споры по лицензионным договорам или договорам на разработку ПО, которое использует ИИ;
  • административные правонарушения звонков или рассылок с использованием ИИ.

Авторы исследования подчеркивают, что в рассматриваемый период последняя категория стала наиболее распространенной: «Основные правонарушения встречаются в деятельности банков по взысканию задолженности и коллекторов».

«Около 50% дел — административные правонарушения. По ним обычно штраф составляет около 100 тыс. руб. Затем идут гражданско-правовые споры — около 40%. По грантам в среднем сумма спора составляет около 12 млн руб., а по договорам — 240 тыс. руб.»,— уточняет управляющий RTM Group Евгений Царев.

Он добавляет, что меньше всего отмечено споров по авторским правам — лишь около 5%. «Внимание к теме ИИ растет, и в течение года мы ожидаем роста судебных споров не менее чем на 80%»,— полагает господин Царев.

В МТС, «Яндексе», Axenix, Just AI, VK отказались от комментариев. В «Сбере», Visionlabs и Альянсе в сфере ИИ («Сбер», «Газпром нефть», «Яндекс», МТС, VK и др.) не ответили.

В разработчике биометрических решений с использованием ИИ «РекФейсис» “Ъ” уточнили, что его клиенты получают неисключительные права на развертывание продукта на собственной инфраструктуре: «Пользователи нашего ПО на основе ИИ защищены законом о биометрии, там же четко распределены роли и обозначены зоны ответственности участников рынка. В сфере коммерческой биометрии мы не ожидаем серьезного роста судебных споров».

«До момента появления полноценного правового регулирования любой отрасли правила устанавливаются в том числе на уровне судебной практики»,— отмечает Кирилл Никитин. Управляющий партнер Semenov & Pevzner Роман Лукьянов считает маловероятным, что складывающаяся практика негативно отразится на разработчиках ИИ. Скорее речь, идет о «подготовке фундамента для изменения регуляторной среды», считает он: «Например, коллекторские организации получили право звонить должникам через автоматизированного интеллектуального агента только с 1 февраля 2024 года. До этого момента активное внедрение технологий ИИ конфликтовало с действовавшим на момент подготовки исследования законодательством об использовании таких технологий».

«Договоры компаний—разработчиков ИИ уже включают положения об ответственности разработчика и непосредственного пользователя,— объясняет партнер юркомпании "О2 Консалтинг" Дарья Носова.— Как правило, распределение ответственности напрямую зависит от того, кто осуществляет обучение и последующую донастройку системы искусственного интеллекта. В данном случае разработчик снимает с себя ответственность и перекладывает ее и риски, сопряженные с использованием ИИ, на пользователя, который обучает систему самостоятельно».

Алексей Жабин, Анна Занина

Зарегистрируйтесь или войдите, чтобы дочитать статью

Это бесплатно и вы сможете читать все закрытые статьи «Ъ»

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...