Спорный интеллект
Количество судебных разбирательств вокруг использования ИИ выросло
За год число судебных решений в спорах вокруг применения ИИ увеличилось на 60%. Основными категориями споров стали использование технологии для взыскания долгов, гранты и договоры на разработку IT-продуктов. Юристы говорят, что полноценного правового регулирования направления в РФ пока нет, как и устойчивых подходов в судебной практике. Поэтому судьям фактически не на что опираться при принятии решений. Но в то же время разбирательства могут «подготовить фундамент для изменения регуляторной среды».
Рисунок: Виктор Чумачев, Коммерсантъ
С марта 2023 по март 2024 года российские суды вынесли 406 решений в спорах вокруг применения ИИ — на 60% больше год к году, говорится в исследовании RTM Group. Его авторы отмечают, что в анализируемом периоде из 165 судебных актов в 53% случаев требования были удовлетворены полностью или частично, а в 34% — отказано. Год назад ситуация была фактически обратной — 31% и 55,5% соответственно.
«Уменьшение числа удовлетворенных требований стало следствием увеличения числа исков, и говорить о тенденции пока не приходится. Устойчивые подходы в судебной практике пока не выработаны, в связи с чем судьи не имеют возможности опираться в своих решениях на аналогичные примеры»,— объясняет руководитель дирекции юрфирмы Vegas Lex Кирилл Никитин.
В исследовании называются и основные категории споров. Это:
- предоставление грантов на разработку IT-продуктов с использованием ИИ;
- споры по лицензионным договорам или договорам на разработку ПО, которое использует ИИ;
- административные правонарушения звонков или рассылок с использованием ИИ.
Авторы исследования подчеркивают, что в рассматриваемый период последняя категория стала наиболее распространенной: «Основные правонарушения встречаются в деятельности банков по взысканию задолженности и коллекторов».
«Около 50% дел — административные правонарушения. По ним обычно штраф составляет около 100 тыс. руб. Затем идут гражданско-правовые споры — около 40%. По грантам в среднем сумма спора составляет около 12 млн руб., а по договорам — 240 тыс. руб.»,— уточняет управляющий RTM Group Евгений Царев.
Он добавляет, что меньше всего отмечено споров по авторским правам — лишь около 5%. «Внимание к теме ИИ растет, и в течение года мы ожидаем роста судебных споров не менее чем на 80%»,— полагает господин Царев.
В МТС, «Яндексе», Axenix, Just AI, VK отказались от комментариев. В «Сбере», Visionlabs и Альянсе в сфере ИИ («Сбер», «Газпром нефть», «Яндекс», МТС, VK и др.) не ответили.
В разработчике биометрических решений с использованием ИИ «РекФейсис» “Ъ” уточнили, что его клиенты получают неисключительные права на развертывание продукта на собственной инфраструктуре: «Пользователи нашего ПО на основе ИИ защищены законом о биометрии, там же четко распределены роли и обозначены зоны ответственности участников рынка. В сфере коммерческой биометрии мы не ожидаем серьезного роста судебных споров».
«До момента появления полноценного правового регулирования любой отрасли правила устанавливаются в том числе на уровне судебной практики»,— отмечает Кирилл Никитин. Управляющий партнер Semenov & Pevzner Роман Лукьянов считает маловероятным, что складывающаяся практика негативно отразится на разработчиках ИИ. Скорее речь, идет о «подготовке фундамента для изменения регуляторной среды», считает он: «Например, коллекторские организации получили право звонить должникам через автоматизированного интеллектуального агента только с 1 февраля 2024 года. До этого момента активное внедрение технологий ИИ конфликтовало с действовавшим на момент подготовки исследования законодательством об использовании таких технологий».
«Договоры компаний—разработчиков ИИ уже включают положения об ответственности разработчика и непосредственного пользователя,— объясняет партнер юркомпании "О2 Консалтинг" Дарья Носова.— Как правило, распределение ответственности напрямую зависит от того, кто осуществляет обучение и последующую донастройку системы искусственного интеллекта. В данном случае разработчик снимает с себя ответственность и перекладывает ее и риски, сопряженные с использованием ИИ, на пользователя, который обучает систему самостоятельно».