За интеллект не взыщут

Юлия Тишина о разнице российского и зарубежного подхода в развитии нейросетей

Развитие технологий обычно опережает законодательство, которое призвано эти технологии регулировать. Так, 24 сентября стало известно, что LinkedIn, принадлежащая Microsoft, приостанавливает использование данных пользователей из Великобритании для обучения генеративного искусственного интеллекта после опасений, высказанных офисом комиссара по информации Великобритании. А только на прошлой неделе сервис без лишнего шума ввел опцию, при которой пользователи по умолчанию давали согласие на использование их данных (постов, видео и т. п.) в этих самых целях. Для отказа была добавлена настройка, но ей надо было специально воспользоваться. Генеративный ИИ в соцсети предназначен, в частности, для помощи пользователям в составлении резюме. И вот не успели начать собирать данные — пришлось отказаться от этого.

Юлия Тишина

Юлия Тишина

Фото: Дмитрий Лебедев, Коммерсантъ

Юлия Тишина

Фото: Дмитрий Лебедев, Коммерсантъ

Потому что на Западе напряжение относительно использования различного контента для обучения нейросетей нарастает. Так, еще весной, когда популярный среди программистов форум Stack Overflow договорился с американской OpenAI, что его контент будет использоваться для тренировки ChatGPT, многим пользователям это не понравилось и они стали редактировать или вовсе удалять свои вопросы и ответы на форуме. До этого традиционно против использования нейросетями их творчества протестовали художники, журналисты и представители других творческих профессий.

В России, как обычно, все наоборот: применение пользовательского контента и данных для обучения локальных нейросетей поддерживает не только бизнес, но и государство. Так, еще весной VK разработала свою большую языковую модель (LLM) для генерирования текстов. За основу взяты, в частности, комментарии из открытых групп во «ВКонтакте». В сентябре стало известно, что Минздрав прорабатывает поправки к законодательству, которые позволят внедрить систему автоматического согласия пациента на передачу его медицинских данных в обезличенном виде на нужды ИИ.

Депутаты Госдумы уже неоднократно заявляли, что необходимо выделить регулирование сферы ИИ в отдельный закон, но таковой пока так и не появился. Возможно, промедление связано с тем, что основной регулятор в этой области главной угрозы ждет из-за рубежа. Так, 19 июня на заседании экспертного совета по искусственному интеллекту Главного радиочастотного центра глава Роскомнадзора Андрей Липов отметил, что зарубежные разработчики подобных сервисов «могут управлять восприятием, объемом знаний и в итоге самим человеком». По его мнению, у РФ только один путь — создавать собственные технологии и сервисы в сфере ИИ. Так что пусть недружественный Запад ограничивает себе базу для обучения ИИ, наш искусственный интеллект в этом не нуждается, он в правильных руках.

Юлия Тишина, редактор отдела медиа и телекоммуникаций “Ъ”

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...