Автомат с «калашниковым»
Россия выступает против запрета полностью автономных боевых систем
Как стало известно “Ъ”, Россия готова поддержать предложение Франции и Германии о принятии в ООН политической декларации, в которой говорилось бы о важности сохранения человеческого контроля над автономными системами вооружений. Эту инициативу в конце августа в Женеве обсудят представители более 80 стран и международных организаций. Между тем, как пояснили “Ъ” в МИД РФ, Москва выступает категорически против введения юридически обязывающих ограничений в этой сфере, поскольку полноценного искусственного интеллекта еще не существует. Сторонники запрета «роботов-убийц», однако, предупреждают: технологии развиваются так быстро, что дипломаты могут просто не успеть предотвратить катастрофу. “Ъ” разбирался в тонкостях нового направления мировой дипломатии.
Сохранить человеческий контроль
27–31 августа в Женеве под эгидой ООН пройдут переговоры Группы правительственных экспертов по смертоносным автономным системам вооружений (САС). Эту тему дипломаты начали предметно обсуждать совсем недавно: первая такая встреча состоялась в декабре 2017 года, вторая — в апреле 2018-го. В качестве дискуссионной площадки был выбран формат Конвенции по негуманному оружию. Именно в ее рамках в свое время рождались запреты кассетных боеприпасов, напалма, ослепляющих лазеров и противопехотных мин.
С инициативой запретить и САС выступили несколько государств. Среди них, например, Австрия, Аргентина, Бразилия, Боливия и Ватикан. Всего на текущий момент идею запрета поддерживают 26 стран.
Логика инициаторов радикальных мер такова: технологии искусственного интеллекта развиваются быстрыми темпами, и появление полностью автономных машин, способных принимать решения и действовать без контроля со стороны человека, не за горами; государства инвестируют значительные средства в адаптацию этих технологий для военных нужд и на вооружении целого ряда стран уже стоят системы с элементами искусственного интеллекта (от интеграции систем противовоздушной обороны до «стай» беспилотников, способных нападать «роем», роботов-часовых и аппаратов для обезвреживания взрывных устройств); значит, через пять-десять лет мир может столкнуться с выведением на поле боя роботов-убийц, которые будут самостоятельно выбирать цели и атаковать их. Отсюда и требование о запрете полностью автономных смертоносных систем: его инициаторы настаивают на принятии юридически обязывающего международного договора, который требовал бы от государств обеспечивать сохранение должного человеческого контроля над машинами. Как пояснила “Ъ” координатор глобальной кампании «Остановите роботов-убийц» (Stop Killer Robots) Мэри Верхэм, под «должным контролем» подразумевается возможность вмешательства оператора в процесс выбора мишени и осуществления атаки.
У сторонников этой идеи большая общественная поддержка. Опубликованную американской организацией «Институт будущего жизни» (Future of Life Institute) 18 июля петицию с требованием запретить создание полностью автономных боевых роботов подписали уже почти 2,5 тыс. ученых, инженеров, общественных деятелей и представителей IT-бизнеса. Определенного успеха сторонникам радикальных мер уже удалось добиться. Так, до декабря 2017 году тематику САС в Женеве на протяжении трех лет обсуждали лишь неформально. Однако в конце прошлого года 123 государства одобрили идею официально наделить группу дискуссионным мандатом. Инициаторы запрета автономных боевых роботов надеются, что намеченная на конец августа встреча станет шагом к наделению группы полноценным переговорным форматом — то есть откроет путь к выработке конвенции о запрещении САС.
Умозрительные системы
Однако многие страны скептически относятся к идее запрета подобных систем. Среди них и Россия. Ее делегация (в составе представителей МИДа, Минобороны и Минпромторга) хоть и готовится к отъезду в Женеву, но о существенном ограничении или полном запрещении САС говорить не готова, а потому выступает против наделения Группы правительственных экспертов переговорным мандатом. Как пояснили “Ъ” в МИД РФ, такое «осторожное» отношение «связано с целым рядом обстоятельств». «Во-первых, надо учитывать, что речь идет о технике, не имеющей пока реально действующих образцов. Представление о таких системах имеется пока лишь весьма поверхностное и умозрительное,— напоминают в ведомстве.— Серьезные затруднения наблюдаются даже при выработке рабочей версии определения термина САС».
Во-вторых, в МИДе указывают на «сложности с четким разграничением гражданских и военных разработок в области автономных систем». И в-третьих, в министерстве «имеются значительные сомнения относительно обозначаемой радикально настроенными государствами и неправительственными организациями недостаточности действующей международно-правовой базы для регулирования САС». «На наш взгляд, международное право (в том числе его гуманитарная отрасль) полностью применимо к САС и не нуждается в модернизации или адаптации под такие пока еще не существующие системы вооружений»,— заверяют на Смоленской площади. И добавляют: «Россия неукоснительно придерживается норм международного гуманитарного права, применимых к этому перспективному виду вооружений. Российское национальное законодательство содержит положения, ставящие барьер возможному вводу в эксплуатацию вооружений, не соответствующих международно-правовым обязательствам России».
Отметим, что российские военные активно адаптируют элементы искусственного интеллекта для своих целей. На вооружении ВС РФ стоят роботизированные морские комплексы «Галтель», способные после получения задания самостоятельно анализировать обстановку и выбирать способы ее решения. Член коллегии военно-промышленной комиссии РФ Олег Мартьянов рассказал агентству «Интерфакс», что эти системы с 2017 года занимаются поиском неразорвавшихся боеприпасов и охраной акватории в районе сирийского порта Тартус. Сообщалось также о поступлении в войска радиоэлектронной борьбы ВС РФ системы РБ-109А «Былина», способной самостоятельно анализировать боевую обстановку и выбирать способы подавления сигналов противника. Элементами искусственного интеллекта планируется наделять едва ли не все новейшие российские системы вооружений — от крылатых ракет до танков и истребителей. Президент РФ Владимир Путин в сентябре прошлого года заявил, что страна, добившаяся лидерства в создании искусственного интеллекта, «будет властелином мира».
Пока же Россия в этой сфере уступает позиции США и Китаю. В целом, по данным аналитиков американской исследовательской компании MarketsandMarkets, мировой рынок технологий искусственного интеллекта военного назначения в 2017 году составил $6,26 млрд. Эксперты полагают, что к 2025 году этот показатель поднимется до $18,82 млрд. Среди компаний—лидеров глобального рынка первые три позиции занимают гиганты американского военно-промышленного комплекса: Lockheed Martin, Raytheon и Northrop Grumman.
В связи с этим не вызывает удивления, что и власти США не готовы предметно обсуждать мораторий на создание автономных боевых роботов. Такой же позиции придерживаются и другие страны, активно инвестирующие в инновационные вооружения: Великобритания, Франция, Германия, Израиль, Япония, Южная Корея. Единственным государством—членом Совета Безопасности ООН, поддержавшим разработку конвенции о запрете САС, неожиданно стал в апреле этого года Китай. Впрочем, в Пекине оговариваются: речь может идти только о запрещении применения полностью автономных боевых систем, но не об ограничениях на их разработку и создание.
Как бы то ни было, с учетом неготовности ведущих стран обсуждать какие-либо запреты в этой сфере сторонникам радикальных мер вряд ли стоит надеяться на быстрый прогресс. Компромиссом может стать предложение Франции и Германии, которое, как ожидается, будет рассмотрено на сессии в Женеве. Париж и Берлин предлагают принять политическое заявление, в котором страны гарантировали бы, что человек в любом случае будет играть ключевую роль при задействовании автономных боевых систем и сможет сохранять контроль над их действиями.
В МИД РФ “Ъ” пояснили, что Москва не возражает против начала подготовки на площадке Конвенции о негуманном оружии политической декларации по САС при том понимании, что она будет согласована по итогам работы профильной Группы правительственных экспертов. В ведомстве подчеркивают, что действия российской делегации будут зависеть от «конкретного наполнения» этой декларации и от того, будет ли в документе учтена позиция России. Российские переговорщики, как заверили “Ъ” в МИД РФ, готовы «включиться в работу» по составлению текста и в целом считают, что его принятие было бы «полезным итогом» деятельности Группы правительственных экспертов.
Как следует из интервью Мэри Верхэм, сторонников запрета роботов-убийц эта мера не удовлетворит. Но на большее им на текущий момент рассчитывать не приходится.