인공지능 킬러 로봇 사용에 대한 복잡한 양상.
인공지능이 무기 시스템을 제어하게 되면 인간의 개입 없이 목표물을 식별, 공격, 파괴할 수 있게 됩니다. 이는 심각한 법적, 윤리적 문제를 야기합니다.
상황의 심각성을 강조하며 알렉산더 샬렌베르크 오스트리아 외무 장관은 "이것은 우리 세대의 오펜하이머 사건과 같은 순간"이라고 말했습니다.
인공지능으로 구동되는 로봇과 무기가 여러 국가의 군대에서 널리 사용되기 시작했습니다. 사진: 포브스
실제로, 전 세계 군대에서 드론과 인공지능(AI)이 널리 사용되고 있는 상황에서 "요정이 항아리에서 탈출한 정도"는 시급한 문제로 대두되었습니다.
글로벌데이터의 국방 분석가인 윌슨 존스는 "러시아와 우크라이나의 현대 분쟁에서의 드론 사용, 미국의 아프가니스탄과 파키스탄에서의 표적 타격 작전에서의 드론 사용, 그리고 지난달에 최근 밝혀진 바와 같이 이스라엘의 라벤더 프로그램의 일환으로 드론이 활용되고 있는 것은 인공지능의 정보 처리 능력이 전 세계 군대에서 공격력 강화를 위해 적극적으로 사용되고 있음을 보여줍니다."라고 말했습니다.
런던에 본부를 둔 전쟁조사국(Office of War Investigations)의 조사 결과, 이스라엘 군의 라벤더 AI 시스템은 하마스와 연관된 인물을 식별하는 데 90%의 정확도를 보였으며, 이는 나머지 10%는 그렇지 않다는 것을 의미합니다. 이러한 AI의 식별 및 의사 결정 능력으로 인해 민간인 사상자가 발생했습니다.
세계 안보에 대한 위협.
이러한 방식으로 인공지능을 활용하는 것은 무기 체계에서 기술 관리가 필요하다는 점을 강조합니다.
스톡홀름 국제 평화 연구소(SIPRI) 인공지능 거버넌스 프로그램 선임 연구원인 알렉산더 블랜차드 박사는 육군 전문 매체 아미 테크놀로지(Army Technology)와의 인터뷰에서 “무기 시스템, 특히 표적 설정에 인공지능을 사용하는 것은 우리 인간이란 누구인지, 전쟁과의 관계, 그리고 더 구체적으로는 무력 충돌에서 폭력을 어떻게 사용할지에 대한 우리의 가정에 대한 근본적인 질문을 제기한다”고 설명했다.
혼란스러운 환경에서 사용될 경우, AI 시스템은 예측 불가능하게 작동할 수 있으며 목표물을 정확하게 식별하지 못할 수 있습니다. (이미지: MES)
“인공지능이 군대가 목표물을 선정하고 무력을 행사하는 방식을 바꿀까요? 이러한 변화는 법적, 윤리적, 작전적 측면에서 다양한 문제를 제기합니다. 가장 큰 우려는 인도주의적 문제입니다.” 블랜차드 박사는 덧붙였다.
SIPRI 전문가는 다음과 같이 설명했습니다. "많은 사람들이 자동화 시스템의 설계 및 사용 방식에 따라 민간인과 국제법상 보호받는 사람들이 더 큰 위험에 처할 수 있다고 우려합니다. 이는 인공지능 시스템, 특히 혼란스러운 환경에서 사용될 경우 예측 불가능하게 작동하여 목표물을 정확하게 식별하지 못하고 민간인을 공격하거나, 교전선 밖에 있는 전투원을 식별하지 못할 수 있기 때문입니다."
글로벌데이터의 국방 분석가인 윌슨 존스는 이 문제에 대해 자세히 설명하면서 유죄를 어떻게 정의해야 하는지에 대한 의문이 제기될 수 있다고 지적합니다.
존스는 "현행 전쟁법에는 지휘 책임이라는 개념이 있다"며, "이는 장교, 장군 또는 기타 지휘관이 자신이 지휘하는 부대의 행동에 대해 법적 책임을 져야 한다는 것을 의미한다. 부대가 전쟁 범죄를 저지르면, 비록 직접 명령을 내리지 않았더라도 장교는 책임을 져야 한다. 입증 책임은 장교에게 있으며, 전쟁 범죄를 막기 위해 가능한 모든 노력을 다했음을 입증해야 한다"고 말했다.
존스는 "인공지능 시스템의 경우, 상황이 복잡해집니다. IT 기술자가 책임져야 할까요? 시스템 설계자가 책임져야 할까요? 명확하지 않습니다. 책임 소재가 불분명하면 관련자들이 자신의 행동이 현행법의 보호를 받지 못한다고 생각하여 도덕적 해이가 발생할 수 있습니다."라고 강조했습니다.
미군 병사가 로봇견과 함께 순찰하고 있다. 사진: 포브스
군비 통제 협약: 여러 주요 국제 협약은 특정 무기 사용을 제한하고 규제합니다. 여기에는 화학 무기 금지 조약, 핵 비확산 조약, 그리고 특정 재래식 무기 협약이 포함되며, 이러한 협약들은 전투원에게 불필요하거나 정당화할 수 없는 고통을 초래하거나 민간인에게 무차별적으로 영향을 미치는 것으로 간주되는 특정 무기의 사용을 금지하거나 제한합니다.
국방 분석가 윌슨 존스는 "핵무기 통제는 수십 년간의 국제 협력과 그에 따른 조약 체결을 통해 실효성을 확보해야 한다"며, "그럼에도 불구하고 우리는 1990년대까지 대기권 핵실험을 계속했다. 핵 비확산의 성공 요인 중 하나는 양극 체제 하에서 미국과 소련의 협력이었다. 하지만 이제 그러한 체제는 더 이상 존재하지 않으며, 인공지능 기술은 원자력보다 더 많은 국가들이 접근할 수 있게 되었다"고 설명했다.
"구속력 있는 조약이 체결되려면 관련 당사국 모두가 협상 테이블에 앉아 군사력을 강화하는 도구를 사용하지 않기로 합의해야 합니다. 하지만 인공지능은 최소한의 재정적, 물적 비용으로 군사적 효율성을 향상시킬 수 있기 때문에 그러한 조약은 효과적이지 않을 가능성이 높습니다."
현재의 지정학적 관점
유엔 회원국들이 군사 분야에서 인공지능을 책임감 있게 활용해야 할 필요성을 인정했지만, 아직 해야 할 일이 많다.
글로벌데이터의 수석 분석가인 로라 페트론은 아미 테크놀로지(Army Technology)와의 인터뷰에서 “명확한 통치 체계가 부족하기 때문에 이러한 발언들은 대체로 야심찬 수준에 머물러 있다. 특히 현재의 지정학적 긴장 상황을 고려할 때, 일부 국가들이 국내 국방 및 국가 안보 문제에 대한 결정에 있어 주권을 유지하려 한다는 것은 놀라운 일이 아니다.”라고 말했다.
페트론 여사는 EU의 AI법이 AI 시스템에 대한 몇 가지 요건을 규정하고 있지만, 군사 목적의 AI 시스템에 대해서는 언급하지 않는다고 덧붙였습니다.
"이러한 제외 조항에도 불구하고, 인공지능법은 인공지능 응용 분야에 오랫동안 미뤄져 왔던 틀을 마련하려는 중요한 노력이며, 향후 관련 표준의 조화를 이끌어낼 수 있을 것이라고 생각합니다."라고 그녀는 논평했습니다. "이러한 조화는 군사 분야의 인공지능에도 매우 중요할 것입니다."
응우옌 칸
[광고_2]
출처: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html






댓글 (0)