AI 킬러 로봇의 복잡한 모습
AI가 무기 시스템을 통제할 수 있게 되면 인간의 개입 없이도 표적을 식별하고, 공격하고, 파괴할 수 있게 됩니다. 이는 심각한 법적, 윤리적 문제를 야기합니다.
오스트리아 외무 장관 알렉산더 샬렌버그는 상황의 심각성을 강조하며 "이것은 우리 세대의 오펜하이머 순간입니다."라고 말했습니다.
인공지능을 활용한 로봇과 무기가 여러 국가의 군대에서 널리 활용되기 시작했습니다. 사진: 포브스
실제로, 드론과 인공지능(AI)이 전 세계 군대에서 널리 사용되면서 "지니가 병에서 탈출했다"는 것이 어느 정도인지가 시급한 문제가 되었습니다.
글로벌데이터의 국방 분석가 윌슨 존스는 "러시아와 우크라이나가 현대 분쟁에서 드론을 사용하고, 미국이 아프가니스탄과 파키스탄에서 표적 타격 작전에 드론을 사용하고 있으며, 지난달에는 이스라엘의 라벤더 프로그램의 일환으로 드론을 사용한 사실이 밝혀지면서 AI의 정보 처리 능력이 전 세계 군대의 공격력 향상에 적극적으로 활용되고 있음을 알 수 있다"고 말했다.
런던에 있는 전쟁조사보도국(OIJ)의 조사에 따르면 이스라엘군의 라벤더 AI 시스템은 하마스 연계 인물을 식별하는 데 90%의 정확도를 보였으며, 10%는 그렇지 않은 것으로 나타났습니다. 이로 인해 AI의 신원 확인 및 의사결정 능력으로 인해 민간인 사망 사례도 발생했습니다.
세계 안보에 대한 위협
이런 방식으로 AI를 활용하면 무기 시스템에서 기술을 관리해야 할 필요성이 강조됩니다.
스톡홀름 국제 평화 연구소(SIPRI)의 인공지능 거버넌스 프로그램 수석 연구원인 알렉산더 블랜차드 박사는 Army Technology에 "무기 시스템에서 AI를 사용하는 것은, 특히 표적 지정에 사용하는 경우, 인간으로서 우리가 누구인지, 전쟁과 우리의 관계는 무엇인지, 더 구체적으로는 무력 분쟁 에서 폭력을 어떻게 사용할지에 대한 우리의 가정은 무엇인지에 대한 근본적인 질문을 제기합니다."라고 설명했습니다. SIPRI는 글로벌 안보에 초점을 맞춘 독립 연구 그룹입니다.
AI 시스템은 혼란스러운 환경에서 사용될 경우 예측할 수 없는 방식으로 작동할 수 있으며, 목표를 정확하게 식별하지 못할 수도 있습니다. 사진: MES
"AI는 군이 표적을 선정하고 무력을 행사하는 방식을 어떻게 변화시킬까요? 이러한 변화는 결국 수많은 법적, 윤리적, 그리고 작전적 문제를 야기합니다. 가장 큰 우려는 인도주의적 측면입니다."라고 블랜차드 박사는 덧붙였습니다.
SIPRI 전문가는 "자율 시스템의 설계 및 사용 방식에 따라 민간인과 국제법상 보호받는 사람들이 더 큰 위험에 처할 수 있다는 우려가 많습니다."라고 설명했습니다. "AI 시스템은 특히 혼란스러운 환경에서 사용될 경우 예측할 수 없는 방식으로 작동할 수 있으며, 표적을 정확하게 식별하고 민간인을 공격하거나 전투 중이 아닌 전투원을 식별하지 못할 수 있습니다."
이 문제에 대해 자세히 설명하면서 GlobalData의 변호 분석가인 윌슨 존스는 유죄를 어떻게 판단하느냐는 문제가 제기될 수 있다고 말했습니다.
존스는 "현행 전쟁법에는 지휘책임이라는 개념이 있습니다."라고 말했습니다. "이는 장교, 장군 또는 기타 지휘관이 지휘 하에 있는 부대의 행동에 대해 법적 책임을 진다는 것을 의미합니다. 만약 부대가 전쟁 범죄를 저지르면, 지휘관은 명령을 내리지 않았더라도 책임을 져야 하며, 전쟁 범죄를 막기 위해 할 수 있는 모든 것을 했다는 것을 입증해야 할 책임은 장교에게 있습니다."
"AI 시스템에서는 상황이 복잡해집니다. IT 기술자가 책임을 져야 할까요? 시스템 설계자가 책임을 져야 할까요? 명확하지 않습니다. 만약 명확하지 않다면, 행위자들이 자신의 행동이 현행법으로 보호받지 못한다고 생각할 경우 윤리적 위험이 발생합니다."라고 존스는 강조했습니다.
로봇견과 함께 순찰하는 미군. 사진: 포브스
군비통제협약: 몇몇 주요 국제 협정은 특정 무기 사용을 제한하고 규제합니다. 화학무기 금지 조약, 핵확산금지조약, 그리고 특정재래식무기금지협약(CCRW)이 있는데, 이 협약은 전투원에게 불필요하거나 정당화될 수 없는 고통을 유발하거나 민간인에게 무차별적으로 영향을 미치는 것으로 간주되는 특정 무기의 사용을 금지하거나 제한합니다.
"핵무기 통제를 위해서는 수십 년간의 국제 협력과 그에 따른 조약 이행이 필요했습니다."라고 국방 분석가 윌슨 존스는 설명합니다. "그럼에도 불구하고 우리는 1990년대까지 대기권 핵실험을 계속했습니다. 핵확산 방지가 성공할 수 있었던 주요 이유는 양극화된 세계 질서 속에서 미국과 소련 간의 협력 덕분이었습니다. 하지만 그러한 협력은 더 이상 존재하지 않으며, AI를 가능하게 하는 기술은 많은 국가에서 원자력보다 더 쉽게 접근할 수 있습니다."
구속력 있는 조약을 체결하려면 모든 관련 당사자들이 군사력을 강화하는 도구를 사용하지 않겠다는 데 동의해야 합니다. 하지만 AI는 최소한의 재정적, 물질적 비용으로 군사력을 향상시킬 수 있기 때문에 이러한 방식은 효과가 없을 가능성이 높습니다.
현재 지정학적 전망
유엔 회원국들은 AI의 군사적 책임 활용의 필요성을 인정했지만, 아직 해야 할 일이 많이 있습니다.
글로벌데이터(GlobalData)의 수석 분석가인 로라 페트론(Laura Petrone)은 아미 테크놀로지(Army Technology)와의 인터뷰에서 "명확한 규제 체계가 없기 때문에 이러한 주장은 대부분 희망 사항일 뿐입니다."라고 말했습니다. "특히 현재의 지정학적 긴장 상황에서 일부 국가들이 국내 국방 및 국가 안보 문제를 결정할 때 자국의 주권을 유지하려는 것은 놀라운 일이 아닙니다."
페트론 여사는 EU AI법이 AI 시스템에 대한 몇 가지 요건을 제시하고 있지만 군사적 목적을 위한 AI 시스템은 다루지 않는다고 덧붙였습니다.
"이러한 배제에도 불구하고, AI법은 오랫동안 기다려온 AI 응용 분야의 틀을 마련하는 중요한 노력이며, 이는 향후 관련 표준의 통일성 확보로 이어질 수 있습니다."라고 그녀는 말했습니다. "이러한 통일성은 군사 분야의 AI에도 중요할 것입니다."
응우옌 칸
[광고_2]
출처: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html
댓글 (0)