Цифре слова не давали
В СПЧ обеспокоены алгоритмами российских нейросетей
Глава президентского Совета по правам человека (СПЧ) Валерий Фадеев возмущен отказом «Алисы» и «Маруси» отвечать на политические вопросы. Об этом он прямо заявил в ходе мероприятия под названием «Защита прав и свобод граждан в условиях цифровизации», организованном СПЧ и форумом «Петербургский диалог». В ответ представитель «Яндекса» постарался объяснить, как работают нейросети и почему уход от ответа — «лучшее, что мы можем сделать сейчас».
Фото: Александр Миридонов, Коммерсантъ
«Темпы цифровизации настолько высоки, что наша основная задача — успевать за этими темпами, работать с нашим населением и защищать его от неправомерных доступов к информации. Важно, чтобы наше население получало правду из интернета»,— открыл круглый стол «Защита прав и свобод граждан в условиях цифровизации» в Светлогорске врио губернатора Калининградской области Алексей Беспрозванных.
Глава СПЧ Валерий Фадеев следом коснулся проблемы сохранности персональных и личных данных граждан в условиях тотальной цифровизации — от фотографий до платежей. «Сейчас идет серьезная дискуссия о том, собственность ли это и чья это собственность,— отметил глава СПЧ.— Я, как человек более консервативный, считаю, что это собственность граждан. Но мы, граждане, соглашаемся и подписываем соответствующие бумаги, что это не наша собственность и делайте с этой информацией все, что хотите».
Как оказалось, господин Фадеев имеет претензии и к внедрению в повседневную жизнь граждан искусственного интеллекта.
Виртуальные голосовые помощники «Алиса» (разработан компанией «Яндекс») и «Маруся» (разработан компанией «VK»), возмущался он, отказываются отвечать на вопросы «Чей Донбасс?» и «Что случилось в Буче?». «В чате GPT (разработан американской компанией OpenAI.— “Ъ”) есть ответы,— уточнил глава СПЧ.— Я думал, что это будут жесткие пропагандистские ответы, но нет — мнение с одной стороны, с другой стороны, есть дискуссия. Довольно обтекаемо, но ответ есть. А наши новые инструменты почему стесняются давать ответы? Это не вопрос цензуры, это вопрос отношения нации к своей истории, важнейший идеологический вопрос». Ранее, напомним, ответами «Алисы» на ряд похожих вопросов возмутился зампред Совета безопасности Дмитрий Медведев.
Директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов объяснил, что отказ в данном случае не носит идеологической подоплеки. Из его слов выходило, что невозможно представить канонический ответ по столь важному поводу. Нейросеть, продолжал он, старается подражать всем текстам, которые видела, и фактически подставляет слова, отталкиваясь от того, что в этом случае могли бы написать люди. При этом, отметил господин Крайнов, в алгоритм вносится элемент случайности, чтобы ответы не были одинаковыми: «Именно поэтому, если каждый раз задавать один и тот же запрос, результат будет отличаться. В том числе отличие может быть абсолютно радикальным по смыслу». Ответы ИИ, напомнил представитель «Яндекса», не подвергаются редактуре, тогда как есть темы, в которых ошибиться «не страшно», а есть темы, за ошибку в которых компания может понести уголовную ответственность.
«Уход от ответа — лучшее, что мы можем сделать сейчас,— резюмировал господин Крайнов.— Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего».
Такая трактовка не удовлетворила члена СПЧ Игоря Ашманова, обратившего внимание, что «Алиса» и «Маруся» позиционируются как «детский компаньон». «Все остальные детские продукты у нас специально проверяются, а этот — нет. И вот ребенку бессмысленно говорить "знаешь, по одному источнику, это русские всех убили в Буче, а по-другому — это фальсификация американцев и хохлов". У ребенка должен быть один ответ. То же самое с историей — нельзя, если ты даже с подростком разговариваешь, давать ему много точек зрения»,— возмутился член СПЧ. Он подчеркнул, что решения должны принимать люди, а не алгоритмы, поскольку «на стороне алгоритмов нет ответственности».
Мероприятие, посвященное защите прав граждан в условиях цифровизации, не могло, конечно, обойтись без обсуждения судьбы так называемого Цифрового кодекса. Документ, подготовка которого ведется уже несколько лет, как предполагается, затронет ряд ключевых аспектов, включая развитие искусственного интеллекта, безопасность персональных данных, деятельность СМИ, блогеров и Telegram-каналов в информационном пространстве. «Проект Цифрового кодекса — это штука, которая выросла из нашей концепции защиты прав граждан в цифровой среде, которую мы писали по поручению президента,— отчитался господин Ашманов.— Там некоторое движение идет, кодекс написать непросто, это на много лет. Сейчас, может быть, все-таки будут вноситься какие-то поправки в существующие законы, потом все это будет сводиться в кодекс».
В СПЧ сообщили “Ъ”, что по итогам круглого стола будет подготовлена резолюция, которую направят в профильные ведомства.