Нельзя доверять интеллекту
США и Китай договорились, что решения о применении ядерного оружия должны контролироваться человеком
Одним из немногих конкретных достижений встречи лидеров КНР и США Си Цзиньпина и Джо Байдена стала устная договоренность о том, что решения о применении ядерного оружия должны оставаться за человеком, а не искусственным интеллектом. Ранее США призвали всю ядерную «пятерку» взять на себя подобные обязательства, однако из-за конфликта вокруг Украины соответствующие переговоры так и не были начаты. Вместе с тем власти РФ неоднократно давали понять, что в будущем международные договоренности об ограничении искусственного интеллекта необходимы.
То, что Си Цзиньпин и Джо Байден пришли к общему пониманию важности сохранения человеческого контроля над искусственным интеллектом (ИИ) в военно-ядерной сфере, следует из официальных пресс-релизов, выпущенных сторонами по итогам переговоров двух президентов на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) в Лиме. «Главы двух стран считают, что стороны провели откровенный и конструктивный диалог по вопросам управления искусственным интеллектом… Они подтвердили необходимость укреплять международное сотрудничество для продвижения искусственного интеллекта на благо всех, а также необходимость сохранить контроль человека над решениями о применении ядерного оружия»,— говорится в сообщении МИД КНР.
«Лидеры двух стран подтвердили необходимость устранения рисков, связанных с системами искусственного интеллекта, повышения безопасности искусственного интеллекта и развития международного сотрудничества, а также продвижения искусственного интеллекта на благо всех людей. Лидеры двух стран подтвердили необходимость сохранения человеческого контроля над принятием решения о применении ядерного оружия. Лидеры двух стран также подчеркнули необходимость тщательно изучать потенциальные риски и развивать технологии искусственного интеллекта в военной сфере осмотрительно и ответственно»,— отметили, в свою очередь, в Белом доме.
И в Пекине, и в Вашингтоне при этом напомнили, что в этом году стороны поддержали в рамках Генассамблеи ООН резолюции друг друга, касающиеся безопасного использования искусственного интеллекта.
Советник президента США Джейк Салливан на пресс-конференции в Лиме отдельно высказался по поводу достигнутых главами государств договоренностей. «Два лидера сделали важный шаг вперед в отношении безопасности и риска ИИ, они согласились о необходимости сохранения человеческого контроля над решением о применении ядерного оружия, что является первым случаем заявления США и КНР о пересечении искусственного интеллекта и ядерной доктрины, и это является отражением того, как даже при оборонной конкуренции между нами и КНР мы могли бы работать на ответственной основе для управления рисками»,— заявил он.
По словам Джейка Салливана, лидеры США и Китая «сгенерировали нечто значимое». «Это не конечная остановка. Это начало, и мы надеемся на продолжение»,— подчеркнул он.
Первые двусторонние консультации в сфере безопасного использования ИИ делегации США и Китая провели в середине мая (см. “Ъ” от 14 мая). Встреча прошла в развитие договоренностей, достигнутых Си Цзиньпином и Джо Байденом в ходе их прошлогодних переговоров в Сан-Франциско. О нацеленности на какие-то конкретные договоренности, впрочем, тогда публично не сообщалось. Их достижение стало казаться еще менее вероятным, после того как власти КНР в середине июля официально отказались от продолжения консультаций с США по контролю над вооружениями. В МИД КНР это решение тогда обосновали тем, что США поставляют вооружения сепаратистски настроенному Тайваню и игнорируют протесты китайской стороны. Как писал тогда “Ъ”, позиция Пекина оказалась близкой к подходу Москвы: Россия ранее также отказалась от диалога с Вашингтоном в сфере контроля над вооружениями, сославшись на конфронтационный курс США и их нежелание учитывать российские интересы, в том числе по Украине (см. “Ъ” от 18 июля).
Для тематики ИИ в Пекине, однако, видимо решили сделать исключение. Джейк Салливан в ходе пресс-конференции дал понять, что Вашингтоне теперь надеются на «дальнейшие шаги», но был вынужден признать, что США не уверены в том, что Китай в обозримом будущем сочтет возможным вернуться к консультациям по контролю над вооружениями и стратегической стабильности. Китайские официальные лица эту тему комментировать не стали.
Элементы ИИ в широком смысле этого слова используются в системах, связанных с ядерными силами разных стран, уже достаточно давно. Это касается и России. Как поясняется на сайте Минобороны РФ, в ракетных войсках стратегического назначения достижения теории искусственного интеллекта в военном деле «используются при создании одного из самых перспективных классов автоматизированных информационных систем военного назначения — систем поддержки принятия решений должностных лиц и так называемых интеллектуальных систем и образцов вооружения (в частности, их бортовых систем управления) различного назначения». В то же время как в России, так и в других странах ведутся активные дискуссии о допустимых пределах задействования автономных самообучающихся систем в военно-ядерной сфере. В начале года вышло знаковое совместное исследование нескольких университетов США, из которого следует, что все наиболее распространенные сейчас нейросистемы в ходе симуляции военного конфликта между государствами показали склонность к эскалационным действиям, вплоть до готовности применить ядерное оружие. У ученых это вызвало тревогу.
В июне 2023 года Джейк Салливан призвал страны ядерной «пятерки» (помимо России и США официально признанными ядерными державами являются Китай, Франция и Великобритания) договориться о недопущении контроля ИИ над ядерным оружием. К предметному обсуждению этой темы стороны, однако, не приступили, что объясняется рядом факторов, включая жесткую конфронтацию вокруг Украины и попытки западных стран ограничить технологическое развитие как России, так и Китая. При этом в обновленной стратегии использования США ядерного оружия, представленной в минувшую пятницу Конгрессу министром обороны Ллойдом Остином, сказано, что США «при любых ситуациях, связанных с принятием президентом решения о применении ядерного оружия, будут придерживаться принципа "сохранения человеческого фактора"». В этом же документе говорится о планах США быть в состоянии одновременно сдерживать и Россию, и Китай.
Президент РФ Владимир Путин в последнее время не раз допускал достижение международных договоренностей в сфере регулирования ИИ. В ходе недавнего заседания дискуссионного клуба «Валдай» он сравнил ИИ с ядерной энергией. «Освоение ядерной энергии — здесь больше плюсов или минусов? Использование мирного атома, атомной энергетики в медицине, в сельском хозяйстве, в транспорте — огромную, важнейшую роль играет, и роль будет возрастать только, я уверен, особенно с учетом проблем климатических изменений. Но в то же время есть ядерное оружие. Это большие угрозы создает для человечества. То же самое, абсолютно то же самое и в искусственном интеллекте. Вопрос: как это регулируется и как люди это используют»,— заявил президент РФ.
Ранее в ходе встречи с участниками Всемирного фестиваля молодежи он отметил, что «применение искусственного интеллекта остановить невозможно». При этом Владимир Путин подчеркнул, что странам «нужно договариваться между собой» для минимизации связанных с ИИ рисков. «Потому что если это (ИИ.— “Ъ”) выйдет из-под контроля, то это может нанести непоправимый ущерб. Мне кажется, что здравый смысл победит, мы сможем договориться»,— предположил российский лидер.