Сложная картина роботов-убийц с искусственным интеллектом
Разрешение ИИ управлять системами вооружения может означать, что цели будут идентифицированы, атакованы и уничтожены без вмешательства человека. Это поднимает серьезные правовые и этические вопросы.
Подчеркивая серьезность ситуации, министр иностранных дел Австрии Александр Шалленберг заявил: «Это момент Оппенгеймера нашего поколения».
Роботы и оружие с использованием искусственного интеллекта начинают широко использоваться в армиях многих стран. Фото: Forbes
Действительно, вопрос о том, в какой степени «джинн вырвался из бутылки», стал актуальным, поскольку беспилотники и искусственный интеллект (ИИ) стали широко использоваться военными по всему миру .
«Использование беспилотников в современных конфликтах Россией и Украиной, использование беспилотников США в операциях по нанесению целевых ударов в Афганистане и Пакистане, а также, как было недавно раскрыто в прошлом месяце, в рамках израильской программы Lavender, показывает, как возможности обработки информации с помощью ИИ активно используются армиями мира для усиления своей наступательной мощи», — сказал аналитик GlobalData Уилсон Джонс.
Расследования, проведенные лондонским Управлением военной журналистики, показали, что система искусственного интеллекта Lavender израильских военных имела 90%-ную точность в идентификации лиц, связанных с ХАМАС, то есть 10% не были таковыми. Это привело к гибели мирных жителей из-за возможностей ИИ по идентификации и принятию решений.
Угроза глобальной безопасности
Такое использование ИИ подчеркивает необходимость управления технологиями в системах вооружения.
«Использование ИИ в системах вооружения, особенно при наведении на цель, поднимает фундаментальные вопросы о том, кто мы, люди, и о нашем отношении к войне, а точнее, о наших предположениях о том, как мы можем использовать насилие в вооруженном конфликте », — объяснил Army Technology доктор Александр Бланшар, старший научный сотрудник программы «Управление искусственным интеллектом» в Стокгольмском международном институте исследований проблем мира (SIPRI), независимой исследовательской группе, занимающейся глобальной безопасностью.
Системы ИИ при использовании в хаотичных условиях могут вести себя непредсказуемо и не всегда точно идентифицировать цели. Фото: МЧС
«Как ИИ меняет способ, которым военные выбирают цели и применяют к ним силу? Эти изменения, в свою очередь, поднимают множество правовых, этических и оперативных вопросов. Наибольшие опасения вызывают гуманитарные вопросы», — добавил доктор Бланшар.
«Многие обеспокоены тем, что в зависимости от того, как спроектированы и используются автономные системы, они могут подвергнуть гражданских лиц и других лиц, защищенных международным правом, большему риску причинения вреда», — пояснил эксперт SIPRI. «Это связано с тем, что системы ИИ, особенно при использовании в хаотичных условиях, могут вести себя непредсказуемо и могут не точно определять цели и атаковать гражданских лиц или не идентифицировать комбатантов, которые не участвуют в боевых действиях».
Развивая эту тему, аналитик по вопросам обороны GlobalData Уилсон Джонс отметил, что вопрос о том, как определяется вина, может быть поставлен под сомнение.
«Согласно действующим законам войны, существует концепция ответственности командования», — сказал Джонс. «Это означает, что офицер, генерал или другой руководитель несет юридическую ответственность за действия войск, находящихся под его командованием. Если войска совершают военные преступления, офицер несет ответственность, даже если он не отдавал им приказа, бремя доказывания лежит на них, чтобы доказать, что они сделали все возможное для предотвращения военных преступлений».
«С системами ИИ это усложняет ситуацию. Кто несет ответственность — ИТ-специалист? Разработчик системы? Это неясно. Если это неясно, это создает этическую опасность, если субъекты считают, что их действия не защищены существующими законами», — подчеркнул Джонс.
Американский солдат патрулирует территорию с роботом-собакой. Фото: Forbes
Конвенции по контролю над вооружениями Несколько крупных международных соглашений ограничивают и регулируют определенные виды использования оружия. Существуют запреты на химическое оружие, договоры о нераспространении ядерного оружия и Конвенция о конкретных видах обычного оружия, которая запрещает или ограничивает использование определенных видов оружия, которые считаются причиняющими ненужные или неоправданные страдания комбатантам или неизбирательно затрагивающими гражданское население.
«Контроль над ядерным оружием потребовал десятилетий международного сотрудничества и последующих договоров для обеспечения соблюдения», — объясняет военный аналитик Уилсон Джонс. «Даже тогда мы продолжали атмосферные испытания до 1990-х годов. Основной причиной, по которой ядерное нераспространение было успешным, было сотрудничество между Соединенными Штатами и Советским Союзом в биполярном мировом порядке. Этого больше не существует, и технология, которая обеспечивает ИИ, более доступна для многих стран, чем ядерная энергетика».
«Обязательный договор должен был бы посадить всех соответствующих игроков за стол переговоров, чтобы они согласились не использовать инструмент, который увеличивает их военную мощь. Это вряд ли сработает, поскольку ИИ может повысить военную эффективность при минимальных финансовых и материальных затратах».
Текущая геополитическая перспектива
Хотя страны-члены Организации Объединенных Наций признали необходимость ответственного использования ИИ в военных целях, предстоит еще многое сделать.
«Без четкой нормативной базы эти претензии остаются в значительной степени амбициозными», — сказала Лаура Петроне, главный аналитик GlobalData, Army Technology. «Неудивительно, что некоторые страны хотят сохранить свой суверенитет при принятии решений по вопросам внутренней обороны и национальной безопасности, особенно в нынешнем климате геополитической напряженности».
Г-жа Петроне добавила, что, хотя Закон ЕС об ИИ устанавливает некоторые требования к системам ИИ, он не касается систем ИИ для военных целей.
«Я думаю, что, несмотря на это исключение, Закон об ИИ является важной попыткой установить давно назревшую основу для приложений ИИ, которая могла бы привести к некоторой степени единообразия соответствующих стандартов в будущем», — прокомментировала она. «Это единообразие также будет важно для ИИ в военной сфере».
Нгуен Кхань
Источник: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
Комментарий (0)