Нельзя доверять интеллекту

США и Китай договорились, что решения о применении ядерного оружия должны контролироваться человеком

Одним из немногих конкретных достижений встречи лидеров КНР и США Си Цзиньпина и Джо Байдена стала устная договоренность о том, что решения о применении ядерного оружия должны оставаться за человеком, а не искусственным интеллектом. Ранее США призвали всю ядерную «пятерку» взять на себя подобные обязательства, однако из-за конфликта вокруг Украины соответствующие переговоры так и не были начаты. Вместе с тем власти РФ неоднократно давали понять, что в будущем международные договоренности об ограничении искусственного интеллекта необходимы.

Фото: Leah Millis , Reuters

Фото: Leah Millis , Reuters

То, что Си Цзиньпин и Джо Байден пришли к общему пониманию важности сохранения человеческого контроля над искусственным интеллектом (ИИ) в военно-ядерной сфере, следует из официальных пресс-релизов, выпущенных сторонами по итогам переговоров двух президентов на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) в Лиме. «Главы двух стран считают, что стороны провели откровенный и конструктивный диалог по вопросам управления искусственным интеллектом… Они подтвердили необходимость укреплять международное сотрудничество для продвижения искусственного интеллекта на благо всех, а также необходимость сохранить контроль человека над решениями о применении ядерного оружия»,— говорится в сообщении МИД КНР.

«Лидеры двух стран подтвердили необходимость устранения рисков, связанных с системами искусственного интеллекта, повышения безопасности искусственного интеллекта и развития международного сотрудничества, а также продвижения искусственного интеллекта на благо всех людей. Лидеры двух стран подтвердили необходимость сохранения человеческого контроля над принятием решения о применении ядерного оружия. Лидеры двух стран также подчеркнули необходимость тщательно изучать потенциальные риски и развивать технологии искусственного интеллекта в военной сфере осмотрительно и ответственно»,— отметили, в свою очередь, в Белом доме.

И в Пекине, и в Вашингтоне при этом напомнили, что в этом году стороны поддержали в рамках Генассамблеи ООН резолюции друг друга, касающиеся безопасного использования искусственного интеллекта.

Советник президента США Джейк Салливан на пресс-конференции в Лиме отдельно высказался по поводу достигнутых главами государств договоренностей. «Два лидера сделали важный шаг вперед в отношении безопасности и риска ИИ, они согласились о необходимости сохранения человеческого контроля над решением о применении ядерного оружия, что является первым случаем заявления США и КНР о пересечении искусственного интеллекта и ядерной доктрины, и это является отражением того, как даже при оборонной конкуренции между нами и КНР мы могли бы работать на ответственной основе для управления рисками»,— заявил он.

По словам Джейка Салливана, лидеры США и Китая «сгенерировали нечто значимое». «Это не конечная остановка. Это начало, и мы надеемся на продолжение»,— подчеркнул он.

Первые двусторонние консультации в сфере безопасного использования ИИ делегации США и Китая провели в середине мая (см. “Ъ” от 14 мая). Встреча прошла в развитие договоренностей, достигнутых Си Цзиньпином и Джо Байденом в ходе их прошлогодних переговоров в Сан-Франциско. О нацеленности на какие-то конкретные договоренности, впрочем, тогда публично не сообщалось. Их достижение стало казаться еще менее вероятным, после того как власти КНР в середине июля официально отказались от продолжения консультаций с США по контролю над вооружениями. В МИД КНР это решение тогда обосновали тем, что США поставляют вооружения сепаратистски настроенному Тайваню и игнорируют протесты китайской стороны. Как писал тогда “Ъ”, позиция Пекина оказалась близкой к подходу Москвы: Россия ранее также отказалась от диалога с Вашингтоном в сфере контроля над вооружениями, сославшись на конфронтационный курс США и их нежелание учитывать российские интересы, в том числе по Украине (см. “Ъ” от 18 июля).

Для тематики ИИ в Пекине, однако, видимо решили сделать исключение. Джейк Салливан в ходе пресс-конференции дал понять, что Вашингтоне теперь надеются на «дальнейшие шаги», но был вынужден признать, что США не уверены в том, что Китай в обозримом будущем сочтет возможным вернуться к консультациям по контролю над вооружениями и стратегической стабильности. Китайские официальные лица эту тему комментировать не стали.

Элементы ИИ в широком смысле этого слова используются в системах, связанных с ядерными силами разных стран, уже достаточно давно. Это касается и России. Как поясняется на сайте Минобороны РФ, в ракетных войсках стратегического назначения достижения теории искусственного интеллекта в военном деле «используются при создании одного из самых перспективных классов автоматизированных информационных систем военного назначения — систем поддержки принятия решений должностных лиц и так называемых интеллектуальных систем и образцов вооружения (в частности, их бортовых систем управления) различного назначения». В то же время как в России, так и в других странах ведутся активные дискуссии о допустимых пределах задействования автономных самообучающихся систем в военно-ядерной сфере. В начале года вышло знаковое совместное исследование нескольких университетов США, из которого следует, что все наиболее распространенные сейчас нейросистемы в ходе симуляции военного конфликта между государствами показали склонность к эскалационным действиям, вплоть до готовности применить ядерное оружие. У ученых это вызвало тревогу.

В июне 2023 года Джейк Салливан призвал страны ядерной «пятерки» (помимо России и США официально признанными ядерными державами являются Китай, Франция и Великобритания) договориться о недопущении контроля ИИ над ядерным оружием. К предметному обсуждению этой темы стороны, однако, не приступили, что объясняется рядом факторов, включая жесткую конфронтацию вокруг Украины и попытки западных стран ограничить технологическое развитие как России, так и Китая. При этом в обновленной стратегии использования США ядерного оружия, представленной в минувшую пятницу Конгрессу министром обороны Ллойдом Остином, сказано, что США «при любых ситуациях, связанных с принятием президентом решения о применении ядерного оружия, будут придерживаться принципа "сохранения человеческого фактора"». В этом же документе говорится о планах США быть в состоянии одновременно сдерживать и Россию, и Китай.

Президент РФ Владимир Путин в последнее время не раз допускал достижение международных договоренностей в сфере регулирования ИИ. В ходе недавнего заседания дискуссионного клуба «Валдай» он сравнил ИИ с ядерной энергией. «Освоение ядерной энергии — здесь больше плюсов или минусов? Использование мирного атома, атомной энергетики в медицине, в сельском хозяйстве, в транспорте — огромную, важнейшую роль играет, и роль будет возрастать только, я уверен, особенно с учетом проблем климатических изменений. Но в то же время есть ядерное оружие. Это большие угрозы создает для человечества. То же самое, абсолютно то же самое и в искусственном интеллекте. Вопрос: как это регулируется и как люди это используют»,— заявил президент РФ.

Ранее в ходе встречи с участниками Всемирного фестиваля молодежи он отметил, что «применение искусственного интеллекта остановить невозможно». При этом Владимир Путин подчеркнул, что странам «нужно договариваться между собой» для минимизации связанных с ИИ рисков. «Потому что если это (ИИ.— “Ъ”) выйдет из-под контроля, то это может нанести непоправимый ущерб. Мне кажется, что здравый смысл победит, мы сможем договориться»,— предположил российский лидер.

Елена Черненко

Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...
Загрузка новости...