Наблюдатели по-разному оценивают соглашение между США и Китаем относительно применения искусственного интеллекта (ИИ) в армии .
Наблюдатели по-разному оценивают соглашение между США и Китаем относительно применения искусственного интеллекта (ИИ) в армии. (Источник: Asia Times) |
После встречи президента США Джо Байдена и председателя КНР Си Цзиньпина 16 ноября (по вьетнамскому времени) на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) 2023 года в Сан-Франциско, штат Калифорния (США), две страны достигли многих важных результатов, включая соглашение о возобновлении военных коммуникаций, сотрудничестве в борьбе с наркотиками (особенно фентанилом) и обсуждении рисков и мер по управлению безопасностью искусственного интеллекта (ИИ).
«Мы соберем экспертов для обсуждения рисков и вопросов безопасности, связанных с использованием искусственного интеллекта», — заявил президент США Джо Байден на пресс-конференции по итогам саммита США и Китая. «Когда я работаю с лидерами по всему миру , они все говорят о влиянии искусственного интеллекта. Это конкретные шаги в правильном направлении, чтобы определить, что необходимо, что опасно, а что приемлемо».
Администрация Байдена недавно опубликовала свой первый указ об искусственном интеллекте и активно продвигает мировые стандарты использования ИИ в вооруженных силах. Китай также продемонстрировал открытость к обсуждениям, в частности, по вопросу запрета использования ИИ в системах управления и контроля (C2) своего ядерного арсенала.
Хотя в заявлении президента Байдена и Белого дома не говорилось прямо о связи между ИИ и ядерным оружием, эксперты перед встречей заявили, что это важная тема для обсуждения между США и Китаем.
«Китай заинтересован в участии в обсуждении по установлению правил и норм для ИИ, и мы должны это приветствовать», — заявила Бонни Глейзер, руководитель Индо-Тихоокеанской программы Германского фонда Маршалла.
Проблема не только в отношениях между США и Китаем.
После того, как SCMP со ссылкой на анонимные источники заявило: «Президент США Джо Байден и председатель КНР Си Цзиньпин готовы взять на себя обязательство запретить использование ИИ в автономных системах оружия, включая использование беспилотных летательных аппаратов (БПЛА), а также управление и развертывание ядерных боеголовок», общественное мнение породило надежды на совместное заявление США и Китая по этому вопросу.
Однако нет никаких признаков того, что Китай или США согласятся на обязательные ограничения своей свободы действий в области ИИ.
Это не только американская и китайская проблема. С февраля 2023 года, после того как США опубликовали «Заявление о политике ответственного использования искусственного интеллекта в вооруженных силах», страна работает над формированием глобального консенсуса по вопросам разработки и использования военного ИИ, который применяется не только к автономному оружию, такому как БПЛА, но и к приложениям, использующим алгоритмы для анализа разведданных или логистического программного обеспечения.
Цель США — противостоять призывам многих активистов движения за мир и неприсоединившихся стран ввести обязательный запрет на «роботов-убийц», тем самым создав возможность для США и их союзников «ответственно» использовать ИИ — технологию, которая быстро развивается и может широко применяться во многих областях.
Также в феврале 2023 года Пентагон начал кардинальный пересмотр своей политики в отношении военного ИИ и автономных систем. Затем посол Бонни Дениз Дженкинс, заместитель государственного секретаря по контролю над вооружениями и международной безопасности, объявила о «Политической декларации об ответственном использовании искусственного интеллекта и автономии в военных делах» на саммите по ответственному использованию искусственного интеллекта в военных делах (REAIM) в Гааге в феврале 2023 года.
Целью настоящего Заявления является изложение согласованного на международном уровне подхода США к тому, как военные могут ответственно включать ИИ и автономность в военные операции.
С тех пор многие другие страны высказались в поддержку США, включая ключевых союзников, таких как Австралия, Великобритания, Франция, Германия и Южная Корея, а также таких стран, как Венгрия, Ливия и Турция. 14 ноября информационное агентство Yonhap сообщило, что США и 45 других стран опубликовали совместное заявление, в котором подчеркивается необходимость «ответственного» использования ИИ в военной сфере.
После встречи двух лидеров возникло несколько противоречивых мнений, включая комментарии по поводу соглашения между США и Китаем относительно применения искусственного интеллекта в армии. В то время как некоторые говорят, что это необходимо, другие говорят, что Вашингтон теряет свое преимущество. Кристофер Александер, директор по анализу в Pioneer Development Group, усомнился в необходимости сделки, указав, что США откажутся от стратегического преимущества, которым они обладают в настоящее время.
«Это плохое решение. Китай отстает от США в области технологий искусственного интеллекта. Поэтому заключение сделки означает, что администрация Байдена отказывается от своего стратегического преимущества», — заявил г-н Александер.
Комментатор Сэмюэл Мангольд-Ленетт также усомнился в том, что Китай будет соблюдать такое соглашение, указав на несоблюдение им Парижского соглашения по климату. Между тем, основатель Центра CAPTRS Фил Сигел заявил, что такое соглашение необходимо, хотя, по его словам, в него также следует включить такие крупные страны, как Россия.
Чего хочет Пекин?
Неудивительно, что Китай до сих пор не принял подход США. «Дипломатическая стратегия страны по-прежнему сосредоточена на конкуренции и противодействии усилиям США по установлению будущих стандартов управления ИИ, особенно в военной сфере», — сказал эксперт Тун Чжао.
Кроме того, по словам этого эксперта, при управлении новыми военными технологиями Китай зачастую выступает против одобрения «ответственной» деятельности, считая это «политической концепцией, лишенной ясности и объективности».
«Очевидно, мы хотели бы, чтобы США перешли к четкой и решительной поддержке создания правовых инструментов для ограничения автономных систем вооружения. Мы считаем, что политического направления и заявлений недостаточно, как и большинства стран», — заявила Кэтрин Коннолли, исследователь из Stop Killer Robots, международной группы неправительственных организаций, которая стремится запретить смертоносное автономное оружие.
Недавно Группа правительственных экспертов (ГПЭ) по автономному оружию провела в Женеве несколько обсуждений по смежным вопросам, чтобы предложить разработку и применение комплекса законов по этому типу оружия, как это ранее применялось к химическому оружию. Однако до сих пор эти усилия не увенчались успехом из-за отсутствия консенсуса среди стран.
В связи с этим движение против оружия на основе ИИ предложило проект резолюции Генеральной Ассамблее Организации Объединенных Наций в Нью-Йорке. Вместо того чтобы призывать к немедленному запрету (что наверняка потерпит неудачу), предложенная Австрией резолюция просто «просит Генерального секретаря Организации Объединенных Наций запросить мнения государств-членов».
В результате 1 ноября 2023 года Генеральная Ассамблея Организации Объединенных Наций приняла резолюцию L.56 — первую резолюцию по автономному оружию, в которой подчеркивается «настоятельная необходимость для международного сообщества решить проблемы и проблемы, связанные с автономными системами оружия». И бизнес-сообщество, и ученые-исследователи, и неправительственные организации представили доклады и официально внесли этот вопрос в повестку дня Организации Объединенных Наций.
Резолюция L.56 была принята 164 голосами «за», 5 голосами «против» и 8 воздержавшимися. При этом Китай является страной, воздержавшейся от голосования.
Исследователь Кэтрин Коннолли заявила, что тот факт, что США и большинство стран проголосовали «за», является положительным знаком, но, к сожалению, Китай воздержался.
Однако в этой резолюции есть некоторые положения, касающиеся характеристик и определений, с которыми Китай не согласен. На практике Пекин склонен использовать единственное, узкое определение «автономного оружия», которое учитывает только те системы, которые после развертывания «находятся без человеческого контроля и не могут быть остановлены». Это заставило Китай заявить, что он поддерживает запрет, хотя на самом деле он исключает большинство автономных систем, которые многие военные стремятся исследовать и создавать.
Резолюция Генеральной Ассамблеи ООН не является обязательной, но если США смогут привлечь другие страны, такие как Великобритания, Франция и, возможно, ЕС, к комплексным усилиям, может быть достигнут прогресс в установлении правил в этой области, считает ученый Джеймс Льюис.
До сих пор международное обсуждение необязательной «политической декларации» фактически вынудило Вашингтон приуменьшить свои амбиции, удалив абзац, касающийся предоставления ИИ возможности управлять ядерным оружием.
Источник
Комментарий (0)