Мнения наблюдателей относительно соглашения между США и Китаем о применении искусственного интеллекта (ИИ) в военной сфере расходятся.
| Мнения наблюдателей относительно соглашения между США и Китаем о применении искусственного интеллекта (ИИ) в военной сфере расходятся. (Источник: Asia Times) |
После встречи президента США Джо Байдена и председателя КНР Си Цзиньпина 16 ноября (по вьетнамскому времени) на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) 2023 года в Сан-Франциско, штат Калифорния, две страны достигли ряда важных результатов, включая договоренность о возобновлении военных контактов, сотрудничестве в борьбе с незаконным оборотом наркотиков (особенно фентанила) и обсуждении рисков и мер по обеспечению безопасности искусственного интеллекта (ИИ).
На пресс-конференции после саммита США-Китай президент США Джо Байден заявил: «Мы соберем экспертов для обсуждения рисков и вопросов безопасности, связанных с применением искусственного интеллекта. Когда я работаю с мировыми лидерами, все они поднимают вопрос о влиянии искусственного интеллекта. Это конкретные шаги в правильном направлении для определения того, что необходимо, уровня опасности и что приемлемо».
Администрация Байдена недавно издала свой первый исполнительный указ по искусственному интеллекту и активно продвигала глобальные стандарты использования ИИ в армии. Китай также продемонстрировал готовность обсудить этот вопрос, особенно в отношении запрета на использование ИИ в своих системах управления и контроля ядерного оружия.
Хотя президент Байден и заявление Белого дома прямо не указывали на связь между искусственным интеллектом и ядерным оружием, эксперты полагали, что это была ключевая тема обсуждения между США и Китаем перед встречей.
Бонни Глазер, руководитель программы по Индо-Тихоокеанскому региону в немецком фонде Маршалла, отметила: «Китай заинтересован в участии в обсуждениях по установлению правил и стандартов для ИИ, и мы должны это приветствовать».
Это проблема не только для США и Китая.
После того, как газета SCMP со ссылкой на анонимные источники сообщила, что «президент США Джо Байден и председатель КНР Си Цзиньпин готовы взять на себя обязательство запретить использование ИИ в автономных системах вооружения, включая его использование для управления беспилотными летательными аппаратами (БПЛА), а также для управления и развертывания ядерных боеголовок», общественное мнение возродило надежду на совместное заявление США и Китая по этому вопросу.
Однако нет никаких признаков того, что Китай или США согласятся на обязательные ограничения своей свободы действий в области искусственного интеллекта.
Это касается не только США и Китая. С февраля 2023 года, после того как США опубликовали свое «Политическое заявление об ответственном использовании искусственного интеллекта в военных целях», они ведут кампанию по формированию глобального консенсуса в отношении разработки и использования военного ИИ, применимого не только к автономному оружию, такому как БПЛА, но и к приложениям, использующим алгоритмы для анализа разведывательной информации или программного обеспечения для логистики.
Цель США состоит в том, чтобы противостоять призывам многих активистов движения за мир и неприсоединившихся стран к обязательному запрету на «роботов-убийц», тем самым создавая возможность для США и их союзников использовать ИИ «ответственно» — быстро развивающуюся технологию с широким спектром применения.
Также в феврале 2023 года Пентагон провел масштабную перестройку своей политики в отношении военного искусственного интеллекта и автономных систем. Вслед за этим посол Бонни Дениз Дженкинс, заместитель государственного секретаря по контролю над вооружениями и международной безопасности, опубликовала «Политическое заявление об ответственном использовании искусственного интеллекта и автономии в вооруженных силах» на саммите по ответственному использованию искусственного интеллекта в вооруженных силах (REAIM) в Гааге в феврале 2023 года.
Цель настоящего заявления — изложить подход США, заключающийся в достижении международного консенсуса, в соответствии с которым военные могут ответственно интегрировать искусственный интеллект и автономные системы в военные операции.
С тех пор многие другие страны выразили свою поддержку США, включая ключевых союзников, таких как Австралия, Великобритания, Франция, Германия и Южная Корея, а также такие страны, как Венгрия, Ливия и Турция. 14 ноября информационное агентство Yonhap сообщило, что США и 45 других стран опубликовали совместное заявление, в котором подчеркивается «ответственное» использование ИИ в вооруженных силах.
После встречи двух лидеров возникли противоречивые мнения, в том числе и по поводу американо-китайского соглашения о применении искусственного интеллекта в военной сфере. Одни утверждали, что соглашение необходимо, другие же считали, что Вашингтон теряет свои преимущества. Кристофер Александер, директор по анализу в Pioneer Development Group, поставил под сомнение необходимость этого соглашения, указав, что США откажутся от своего нынешнего стратегического преимущества.
«Это плохое решение. Китай отстает от США в технологиях искусственного интеллекта. Поэтому заключение этой сделки означает, что администрация Байдена отказывается от своего стратегического преимущества», — сказал Александр.
Комментатор Самуэль Мангольд-Ленетт также усомнился в том, будет ли Китай соблюдать такое соглашение, указав на несоблюдение им Парижского соглашения по климату. Между тем, Фил Сигел, основатель Центра CAPTRS, утверждал, что такое соглашение необходимо, хотя и отметил, что в него следует включить и такие крупные державы, как Россия.
Чего хочет Пекин?
Неудивительно, что Китай пока не принял подход США. Эксперт Тонг Чжао заявил: «Дипломатическая стратегия страны по-прежнему сосредоточена на конкуренции и противодействии усилиям США по установлению будущих стандартов управления ИИ, особенно в военном секторе».
Кроме того, по словам этого эксперта, в управлении новыми военными технологиями Китай часто выступает против одобрения «ответственных» методов, утверждая, что это «политическая концепция, лишенная ясности и объективности».
Кэтрин Коннолли, исследовательница из организации Stop Killer Robots, международной организации, объединяющей НПО, стремящиеся запретить автономное смертоносное оружие, заявила: «Очевидно, мы ожидаем, что США будут двигаться в направлении четкой и решительной поддержки создания правовых рамок для ограничения автономных систем вооружения. Мы считаем, что политических указаний и заявлений недостаточно, как и в большинстве стран».
В последнее время Группа ведущих правительственных экспертов (ГПЭ) по автоматизированному оружию неоднократно проводила в Женеве дискуссии по соответствующим вопросам с целью предложить разработку и внедрение закона об этом типе оружия, аналогичного тому, который ранее применялся к химическому оружию. Однако до настоящего времени эти усилия не увенчались успехом из-за отсутствия консенсуса среди стран-участниц.
Поэтому движение против оружия, созданного с использованием искусственного интеллекта, предложило Генеральной Ассамблее ООН в Нью-Йорке проект резолюции. Вместо призыва к немедленному запрету — что почти наверняка потерпит неудачу — резолюция, предложенная Австрией, лишь «просит Генерального секретаря ООН запросить мнения государств-членов».
В результате 1 ноября 2023 года Генеральная Ассамблея Организации Объединенных Наций приняла резолюцию L.56, первую резолюцию по автономному оружию, в которой подчеркивалась «настоятельная необходимость для международного сообщества решить проблемы и вопросы, связанные с автономными системами вооружения». Предприятия, научные исследователи и неправительственные организации представили доклады и официально включили этот вопрос в повестку дня ООН.
Резолюция L.56 была принята 164 голосами «за», 5 «против» и 8 воздержавшимися. Китай был единственной страной, воздержавшейся от голосования.
Исследовательница Кэтрин Коннолли считает, что тот факт, что США и большинство других стран проголосовали за, является позитивным знаком, но вызывает сожаление, что Китай воздержался.
Однако, что касается этой резолюции, Китай не согласен с некоторыми аспектами, касающимися её характеристик и определений. Фактически, Пекин склонен использовать одно узкое определение «автономного оружия», которое рассматривает только системы, которые после развертывания становятся «неконтролируемыми и неудержимыми». Это заставляет Китай заявлять о поддержке запрета, в то время как в действительности он исключает большинство автономных систем, которые в настоящее время исследуются и разрабатываются вооруженными силами многих стран.
Ученый Джеймс Льюис утверждает, что, хотя резолюции Генеральной Ассамблеи ООН не имеют обязательной силы, если США смогут привлечь к всеобъемлющим усилиям другие страны, такие как Великобритания, Франция и, возможно, ЕС, можно будет добиться прогресса в установлении правил в этой области.
На сегодняшний день международные дискуссии о не имеющей обязательной силы «политической декларации» фактически вынудили Вашингтон смягчить свои амбиции, исключив из нее раздел, касающийся предоставления искусственному интеллекту возможности контролировать ядерное оружие.
Источник







Комментарий (0)