Пользоваться с умом

США и Китай проведут консультации в сфере безопасного использования искусственного интеллекта

Делегации США и Китая во вторник впервые проведут двусторонние консультации в сфере безопасного использования искусственного интеллекта (ИИ). Встреча пройдет в развитие договоренностей, достигнутых президентом США Джо Байденом и председателем КНР Си Цзиньпином в ходе их прошлогодних переговоров в Сан-Франциско. Ранее власти США призывали Россию и Китай заявить, что ИИ никогда не будет без контроля человека управлять ядерным оружием. Президент РФ Владимир Путин за последние месяцы неоднократно высказывался в пользу международных договоренностей в сфере управления ИИ, однако с учетом конфронтации между Россией и Западом неясно, когда они будут достигнуты.

Фото: Aly Song / File Photo / Reuters

Фото: Aly Song / File Photo / Reuters

Во вторник межведомственные делегации США и Китая встретятся в Женеве для проведения первых двусторонних консультаций в сфере безопасного использования ИИ. Включить эту тему в график контактов Джо Байден и Си Цзиньпин договорились в ходе встречи в Сан-Франциско в ноябре прошлого года. Анонсируя предстоящие консультации, в Белом доме в понедельник уточнили: речь идет пока лишь об обмене мнениями по тематике безопасности ИИ, каких-либо решений или совместных заявлений по их итогам ожидать не стоит. В МИД КНР, в свою очередь, добавили, что стороны обсудят риски, связанные с технологиями ИИ, и глобальное управление ими. Делегацию США возглавят представители Совета национальной безопасности и Госдепартамента, а делегацию Китая — представители МИДа и Государственного комитета по развитию и реформе.

В Белом доме при этом подчеркнули: запуск консультаций по тематике ИИ не означает, что власти США готовы пересмотреть введенные ими в прошлом году ограничения на поставки Китаю компьютерных чипов, используемых при разработке моделей ИИ.

Более того, 8 мая агентство Reuters со ссылкой на источники сообщило, что администрация США готовится в ближайшее время еще сильнее ограничить доступ Китая к передовым американским технологиям в сфере ИИ. В Вашингтоне эти меры объясняют соображениями «национальной безопасности». Власти же КНР ранее не раз критиковали США за эти решения, отмечая, что они разрушают производственно-сбытовые цепочки и вредят международному сотрудничеству.

Несмотря на этот негативный фон и в целом крайне непростую ситуацию в отношениях Вашингтона и Пекина, американские СМИ не исключают, что консультации в Женеве приведут к конкретным результатам. «Соединенные Штаты и Китай проведут первые переговоры на высоком уровне о рисках, связанных с искусственным интеллектом, поскольку правительства двух стран стремятся предотвратить катастрофические аварии и непреднамеренные войны в условиях гонки вооружений в области зарождающихся технологий»,— анонсировала встречу газета The Washington Post. «Американские и китайские дипломаты планируют встретиться, чтобы начать первые, предварительные переговоры по контролю над вооружениями в области использования искусственного интеллекта. Это попытка найти точки соприкосновения в вопросе о том, как будет использоваться искусственный интеллект и в каких сферах он может быть запрещен»,— пошла еще дальше The New York Times.

Отметим, что ранее разные администрации США призывали Китай вступить с ними в переговоры о контроле над ядерными вооружениями, однако в Пекине не соглашались на это, ссылаясь в том числе на существенную разницу в потенциалах двух стран. В ноябре прошлого года делегации двух стран впервые за многие годы провели консультации по этой теме, однако каких-либо договоренностей на них достигнуто не было, и пока неясно, продолжатся ли двусторонние контакты в этой сфере. О том, что какая-либо из сторон готова рассмотреть вариант ограничения своего потенциала в сфере военного применения ИИ, официально ни в Вашингтоне, ни в Пекине не объявляли, и вряд ли этого стоит ожидать в нынешних обстоятельствах.

К чему США публично склоняют как Китай, так и Россию, это к заявлению на высоком уровне о том, что ИИ никогда не будет без контроля человека управлять ядерным оружием.

В июне прошлого года советник президента США по нацбезопасности Джейк Салливан перечислил эту меру среди шагов, которые могли бы совместно предпринять страны «ядерной пятерки» (Великобритания, Китай, Россия, США и Франция). Россия до августа председательствует в формате «пятерки». Каких-то новых совместных заявлений ее участников, однако, пока не ожидается, что связано в том числе с конфликтом между Россией и западными членами «пятерки» вокруг Украины. При этом как США, так и европейские страны ввели в отношении российского высокотехнологичного сектора санкции, нацеленные на ограничение потенциала РФ в сфере передовых технологий (включая технологии двойного назначения).

Первый заместитель помощника госсекретаря США по контролю над вооружениями Пол Дин 2 мая призвал Россию и Китай принять заявления по поводу ограничения использования ИИ в военно-ядерной сфере. Из его комментария следовало, что Москва и Пекин могли бы сделать это «в контексте "ядерной пятерки"», но не обязательно вместе с другими ее участниками. Согласно заявлению Пола Дина, которое цитировало агентство Reuters, США уже взяли на себя «четкое и твердое обязательство», что люди будут полностью контролировать ядерное оружие. Власти Франции и Великобритании, напомнил он далее, «сделали то же самое». «Мы будем рады аналогичному заявлению Китая и Российской Федерации»,— сказал американский дипломат, добавив, что такое обязательство было бы «чрезвычайно важной нормой ответственного поведения».

Власти РФ пока не комментировали этот призыв. При этом ранее они из-за конфликта вокруг Украины и общей деградации российско-американских отношений отказались от возобновления контактов с США по контролю над вооружениями и снижению ядерных рисков. Вернуться к переговорам с США по этим вопросам Москва, как следует из пояснений МИД РФ, готова только, если Вашингтон откажется «от курса на подрыв безопасности России» и продемонстрирует «реальную готовность к комплексной работе с акцентом на устранение первопричин созданных американцами фундаментальных противоречий» (см. “Ъ” от 13 апреля).

В то же время Владимир Путин в последние несколько месяцев не раз допускал достижение международных договоренностей в сфере ИИ.

«Человечество же выработало определенные правила, связанные с использованием ядерных технологий, в том числе в военной области, нераспространения, придумало правила нераспространения носителей самих ядерных технологий. Человечество смогло выработать это, значит, и в сфере искусственного интеллекта мы вполне можем выйти на приемлемые для всех, нужные для всех общие решения»,— заявил он в ноябре прошлого года на пленарном заседании международной конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey 2023. Возможным это, по мнению президента РФ, станет, «когда все почувствуют угрозу». «Это не шутка. Когда почувствуют угрозу в бесконтрольном распространении, в бесконтрольной работе в этой сфере, тогда сразу возникнет желание договариваться»,— заявил он тогда.

Владимир Путин вернулся к этой теме 6 марта, в ходе встречи с участниками Всемирного фестиваля молодежи. «Применение искусственного интеллекта остановить невозможно, это очевидная вещь. Я не склонен соглашаться с теми, кто видит здесь какой-то конец света, видит, что будет какой-то рубеж, точка невозврата, когда невозможно будет человечеству вернуться к тому, что мы живем в мире человека, а наступит с какой-то точки невозврата другая эпоха в жизни человечества — эра машин, которые будут управлять человеком. На сегодняшний день, во всяком случае, все зависит от нас»,— отметил президент, при этом вновь подчеркнув, что странам «нужно договариваться между собой». «Потому что если это (ИИ.— “Ъ”) выйдет из-под контроля, то это может нанести непоправимый ущерб»,— предупредил Владимир Путин. И добавил: «Мне кажется, что здравый смысл победит, мы сможем договориться».

Елена Черненко

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...