Vietnam.vn - Nền tảng quảng bá Việt Nam

Теряет ли Вашингтон свое преимущество?

Báo Quốc TếBáo Quốc Tế23/11/2023


Мнения наблюдателей относительно соглашения между США и Китаем о применении искусственного интеллекта (ИИ) в военной сфере расходятся.
Thoả thuận Mỹ-Trung Quốc về ứng dụng AI trong quân sự: Washington có đang mất dần lợi thế?
Мнения наблюдателей относительно соглашения между США и Китаем о применении искусственного интеллекта (ИИ) в военной сфере расходятся. (Источник: Asia Times)

После встречи президента США Джо Байдена и председателя КНР Си Цзиньпина 16 ноября (по вьетнамскому времени) на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) 2023 года в Сан-Франциско, штат Калифорния, две страны достигли ряда важных результатов, включая договоренность о возобновлении военных контактов, сотрудничестве в борьбе с незаконным оборотом наркотиков (особенно фентанила) и обсуждении рисков и мер по обеспечению безопасности искусственного интеллекта (ИИ).

На пресс-конференции после саммита США-Китай президент США Джо Байден заявил: «Мы соберем экспертов для обсуждения рисков и вопросов безопасности, связанных с применением искусственного интеллекта. Когда я работаю с мировыми лидерами, все они поднимают вопрос о влиянии искусственного интеллекта. Это конкретные шаги в правильном направлении для определения того, что необходимо, уровня опасности и что приемлемо».

Администрация Байдена недавно издала свой первый исполнительный указ по искусственному интеллекту и активно продвигала глобальные стандарты использования ИИ в армии. Китай также продемонстрировал готовность обсудить этот вопрос, особенно в отношении запрета на использование ИИ в своих системах управления и контроля ядерного оружия.

Хотя президент Байден и заявление Белого дома прямо не указывали на связь между искусственным интеллектом и ядерным оружием, эксперты полагали, что это была ключевая тема обсуждения между США и Китаем перед встречей.

Бонни Глазер, руководитель программы по Индо-Тихоокеанскому региону в немецком фонде Маршалла, отметила: «Китай заинтересован в участии в обсуждениях по установлению правил и стандартов для ИИ, и мы должны это приветствовать».

Это проблема не только для США и Китая.

После того, как газета SCMP со ссылкой на анонимные источники сообщила, что «президент США Джо Байден и председатель КНР Си Цзиньпин готовы взять на себя обязательство запретить использование ИИ в автономных системах вооружения, включая его использование для управления беспилотными летательными аппаратами (БПЛА), а также для управления и развертывания ядерных боеголовок», общественное мнение возродило надежду на совместное заявление США и Китая по этому вопросу.

Однако нет никаких признаков того, что Китай или США согласятся на обязательные ограничения своей свободы действий в области искусственного интеллекта.

Это касается не только США и Китая. С февраля 2023 года, после того как США опубликовали свое «Политическое заявление об ответственном использовании искусственного интеллекта в военных целях», они ведут кампанию по формированию глобального консенсуса в отношении разработки и использования военного ИИ, применимого не только к автономному оружию, такому как БПЛА, но и к приложениям, использующим алгоритмы для анализа разведывательной информации или программного обеспечения для логистики.

Цель США состоит в том, чтобы противостоять призывам многих активистов движения за мир и неприсоединившихся стран к обязательному запрету на «роботов-убийц», тем самым создавая возможность для США и их союзников использовать ИИ «ответственно» — быстро развивающуюся технологию с широким спектром применения.

Также в феврале 2023 года Пентагон провел масштабную перестройку своей политики в отношении военного искусственного интеллекта и автономных систем. Вслед за этим посол Бонни Дениз Дженкинс, заместитель государственного секретаря по контролю над вооружениями и международной безопасности, опубликовала «Политическое заявление об ответственном использовании искусственного интеллекта и автономии в вооруженных силах» на саммите по ответственному использованию искусственного интеллекта в вооруженных силах (REAIM) в Гааге в феврале 2023 года.

Цель настоящего заявления — изложить подход США, заключающийся в достижении международного консенсуса, в соответствии с которым военные могут ответственно интегрировать искусственный интеллект и автономные системы в военные операции.

С тех пор многие другие страны выразили свою поддержку США, включая ключевых союзников, таких как Австралия, Великобритания, Франция, Германия и Южная Корея, а также такие страны, как Венгрия, Ливия и Турция. 14 ноября информационное агентство Yonhap сообщило, что США и 45 других стран опубликовали совместное заявление, в котором подчеркивается «ответственное» использование ИИ в вооруженных силах.

После встречи двух лидеров возникли противоречивые мнения, в том числе и по поводу американо-китайского соглашения о применении искусственного интеллекта в военной сфере. Одни утверждали, что соглашение необходимо, другие же считали, что Вашингтон теряет свои преимущества. Кристофер Александер, директор по анализу в Pioneer Development Group, поставил под сомнение необходимость этого соглашения, указав, что США откажутся от своего нынешнего стратегического преимущества.

«Это плохое решение. Китай отстает от США в технологиях искусственного интеллекта. Поэтому заключение этой сделки означает, что администрация Байдена отказывается от своего стратегического преимущества», — сказал Александр.

Комментатор Самуэль Мангольд-Ленетт также усомнился в том, будет ли Китай соблюдать такое соглашение, указав на несоблюдение им Парижского соглашения по климату. Между тем, Фил Сигел, основатель Центра CAPTRS, утверждал, что такое соглашение необходимо, хотя и отметил, что в него следует включить и такие крупные державы, как Россия.

Чего хочет Пекин?

Неудивительно, что Китай пока не принял подход США. Эксперт Тонг Чжао заявил: «Дипломатическая стратегия страны по-прежнему сосредоточена на конкуренции и противодействии усилиям США по установлению будущих стандартов управления ИИ, особенно в военном секторе».

Кроме того, по словам этого эксперта, в управлении новыми военными технологиями Китай часто выступает против одобрения «ответственных» методов, утверждая, что это «политическая концепция, лишенная ясности и объективности».

Кэтрин Коннолли, исследовательница из организации Stop Killer Robots, международной организации, объединяющей НПО, стремящиеся запретить автономное смертоносное оружие, заявила: «Очевидно, мы ожидаем, что США будут двигаться в направлении четкой и решительной поддержки создания правовых рамок для ограничения автономных систем вооружения. Мы считаем, что политических указаний и заявлений недостаточно, как и в большинстве стран».

В последнее время Группа ведущих правительственных экспертов (ГПЭ) по автоматизированному оружию неоднократно проводила в Женеве дискуссии по соответствующим вопросам с целью предложить разработку и внедрение закона об этом типе оружия, аналогичного тому, который ранее применялся к химическому оружию. Однако до настоящего времени эти усилия не увенчались успехом из-за отсутствия консенсуса среди стран-участниц.

Поэтому движение против оружия, созданного с использованием искусственного интеллекта, предложило Генеральной Ассамблее ООН в Нью-Йорке проект резолюции. Вместо призыва к немедленному запрету — что почти наверняка потерпит неудачу — резолюция, предложенная Австрией, лишь «просит Генерального секретаря ООН запросить мнения государств-членов».

В результате 1 ноября 2023 года Генеральная Ассамблея Организации Объединенных Наций приняла резолюцию L.56, первую резолюцию по автономному оружию, в которой подчеркивалась «настоятельная необходимость для международного сообщества решить проблемы и вопросы, связанные с автономными системами вооружения». Предприятия, научные исследователи и неправительственные организации представили доклады и официально включили этот вопрос в повестку дня ООН.

Резолюция L.56 была принята 164 голосами «за», 5 «против» и 8 воздержавшимися. Китай был единственной страной, воздержавшейся от голосования.

Исследовательница Кэтрин Коннолли считает, что тот факт, что США и большинство других стран проголосовали за, является позитивным знаком, но вызывает сожаление, что Китай воздержался.

Однако, что касается этой резолюции, Китай не согласен с некоторыми аспектами, касающимися её характеристик и определений. Фактически, Пекин склонен использовать одно узкое определение «автономного оружия», которое рассматривает только системы, которые после развертывания становятся «неконтролируемыми и неудержимыми». Это заставляет Китай заявлять о поддержке запрета, в то время как в действительности он исключает большинство автономных систем, которые в настоящее время исследуются и разрабатываются вооруженными силами многих стран.

Ученый Джеймс Льюис утверждает, что, хотя резолюции Генеральной Ассамблеи ООН не имеют обязательной силы, если США смогут привлечь к всеобъемлющим усилиям другие страны, такие как Великобритания, Франция и, возможно, ЕС, можно будет добиться прогресса в установлении правил в этой области.

На сегодняшний день международные дискуссии о не имеющей обязательной силы «политической декларации» фактически вынудили Вашингтон смягчить свои амбиции, исключив из нее раздел, касающийся предоставления искусственному интеллекту возможности контролировать ядерное оружие.



Источник

Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же тема

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
Молитвенная церемония для рыбаков.

Молитвенная церемония для рыбаков.

Цветочная деревня Са Дек

Цветочная деревня Са Дек

ДАРЫ МОРЯ

ДАРЫ МОРЯ