Vietnam.vn - Nền tảng quảng bá Việt Nam

Опасность «роботов-убийц с искусственным интеллектом» угрожает глобальной безопасности

Công LuậnCông Luận20/07/2024


Сложная картина роботов-убийц с искусственным интеллектом

Предоставление ИИ возможности управлять системами вооружения может означать, что цели будут идентифицироваться, атаковаться и уничтожаться без участия человека. Это поднимает серьёзные правовые и этические вопросы.

Подчеркивая серьезность ситуации, министр иностранных дел Австрии Александр Шалленберг заявил: «Это момент Оппенгеймера нашего поколения».

Опасность со стороны роботов-убийц угрожает глобальной безопасности.

Роботы и оружие с искусственным интеллектом начинают широко использоваться в армиях многих стран. Фото: Forbes

Действительно, вопрос о том, в какой степени «джинн вырвался из бутылки», стал насущным, поскольку беспилотники и искусственный интеллект (ИИ) стали широко использоваться военными по всему миру .

«Использование беспилотников в современных конфликтах Россией и Украиной, использование беспилотников США в операциях по нанесению целевых ударов в Афганистане и Пакистане и, как было недавно объявлено в прошлом месяце, в рамках израильской программы Lavender, показывает, как возможности обработки информации с помощью ИИ активно используются армиями по всему миру для усиления их наступательной мощи», — сказал военный аналитик GlobalData Уилсон Джонс.

Расследования, проведённые лондонским Управлением военной журналистики, показали, что израильская военная система искусственного интеллекта «Lavender» с точностью 90% идентифицировала лиц, связанных с ХАМАС, то есть 10% не были таковыми. В результате этого из-за возможностей ИИ по идентификации и принятию решений погибли и мирные жители.

Угроза глобальной безопасности

Такое использование ИИ подчеркивает необходимость управления технологиями в системах вооружения.

«Использование ИИ в системах вооружения, особенно при наведении на цель, поднимает фундаментальные вопросы о том, кто мы, люди, и о нашем отношении к войне, а точнее, о наших предположениях о том, как мы можем использовать насилие в вооруженном конфликте », — объяснил изданию Army Technology доктор Александр Бланшар, старший научный сотрудник программы «Управление искусственным интеллектом» в Стокгольмском международном институте исследований проблем мира (СИПРИ), независимой исследовательской группе, занимающейся глобальной безопасностью.

Опасность со стороны роботов-убийц угрожает глобальной безопасности.

Системы искусственного интеллекта при использовании в хаотичной обстановке могут вести себя непредсказуемо и не всегда точно идентифицировать цели. Фото: МЧС

«Как ИИ меняет способ, которым военные выбирают цели и применяют к ним силу? Эти изменения, в свою очередь, поднимают множество правовых, этических и оперативных вопросов. Наибольшие опасения вызывают гуманитарные вопросы», — добавил доктор Бланшар.

«Многие обеспокоены тем, что, в зависимости от того, как спроектированы и используются автономные системы, они могут подвергнуть гражданских лиц и других лиц, защищённых международным правом, большему риску причинения вреда», — пояснил эксперт СИПРИ. «Это связано с тем, что системы ИИ, особенно при использовании в хаотичной обстановке, могут вести себя непредсказуемо и не всегда точно определять цели и атаковать гражданских лиц, а также не идентифицировать комбатантов, не участвующих в боевых действиях».

Аналитик по вопросам обороны GlobalData Уилсон Джонс, развивая эту тему, отметил, что вопрос о том, как определяется виновность, может быть поставлен под сомнение.

«Согласно действующим законам войны, существует концепция ответственности командира», — сказал Джонс. «Это означает, что офицер, генерал или другой руководитель несёт юридическую ответственность за действия войск, находящихся под его командованием. Если войска совершают военные преступления, офицер несёт ответственность, даже если он не отдавал им приказа. Бремя доказывания лежит на нём, он должен доказать, что сделал всё возможное для предотвращения военных преступлений».

«С системами искусственного интеллекта это усложняет ситуацию. Кто несёт ответственность: IT-специалист? Разработчик системы? Неясно. Если это неясно, возникает этическая угроза, если субъекты считают, что их действия не защищены действующим законодательством», — подчеркнул Джонс.

Опасность со стороны роботов-убийц угрожает глобальной безопасности.

Американский солдат патрулирует территорию с роботом-собакой. Фото: Forbes

Конвенции о контроле над вооружениями. Несколько крупных международных соглашений ограничивают и регулируют определённые виды применения оружия. Существуют запреты на химическое оружие, договоры о нераспространении ядерного оружия и Конвенция о конкретных видах обычного оружия, которая запрещает или ограничивает применение конкретных видов оружия, которые считаются причиняющими ненужные или неоправданные страдания комбатантам или неизбирательно затрагивающими гражданское население.

«Для контроля над ядерными вооружениями потребовались десятилетия международного сотрудничества и последующих договоров», — объясняет военный аналитик Уилсон Джонс. «Даже тогда мы продолжали испытания в атмосфере до 1990-х годов. Одной из главных причин успеха ядерного нераспространения было сотрудничество между Соединёнными Штатами и Советским Союзом в рамках биполярного миропорядка. Сейчас этого больше не существует, и технологии, обеспечивающие работу ИИ, для многих стран более доступны, чем ядерная энергетика».

«Обязательный договор должен был бы посадить всех заинтересованных игроков за стол переговоров и договориться не использовать инструмент, увеличивающий их военную мощь. Это вряд ли сработает, поскольку ИИ может повысить военную эффективность с минимальными финансовыми и материальными затратами».

Текущая геополитическая перспектива

Хотя страны — члены Организации Объединенных Наций признали необходимость ответственного военного использования ИИ, предстоит еще многое сделать.

«Без чёткой нормативно-правовой базы эти заявления остаются в основном пустыми словами», — заявила изданию Army Technology Лаура Петроне, главный аналитик GlobalData. «Неудивительно, что некоторые страны хотят сохранить свой суверенитет при принятии решений по вопросам внутренней обороны и национальной безопасности, особенно в нынешних условиях геополитической напряжённости».

Г-жа Петроне добавила, что, хотя Закон ЕС об ИИ устанавливает некоторые требования к системам ИИ, он не распространяется на системы ИИ военного назначения.

«Я считаю, что, несмотря на это исключение, Закон об ИИ — это важная попытка создать давно назревшую рамочную основу для применения ИИ, которая может привести к определённому единообразию соответствующих стандартов в будущем», — отметила она. «Такое единообразие будет важно и для применения ИИ в военной сфере».

Нгуен Кхань



Источник: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html

Комментарий (0)

No data
No data
Полюбуйтесь миллионолетним вулканом Чу-Данг-Я в Джиа-Лае.
На реализацию музыкального проекта во славу Отечества группе Vo Ha Tram потребовалось 6 недель.
Кофейня в Ханое ярко украшена красными флагами и желтыми звездами в честь 80-летия Национального дня 2 сентября.
Крылья летят на полигоне А80
Специальные пилоты в парадном строю по случаю Национального дня 2 сентября.
Солдаты маршируют под палящим солнцем на учебном полигоне.
Посмотрите, как вертолеты репетируют в небе над Ханоем в рамках подготовки к Национальному дню 2 сентября.
Сборная Вьетнама U23 блестяще привезла домой трофей чемпионата Юго-Восточной Азии среди команд U23.
Северные острова – как «необработанные драгоценные камни», дешевые морепродукты, 10 минут на лодке от материка.
Мощный строй из пяти истребителей Су-30МК2 готовится к церемонии А80

Наследство

Фигура

Бизнес

No videos available

Новости

Политическая система

Местный

Продукт