Vietnam.vn - Nền tảng quảng bá Việt Nam

'AI 킬러 로봇'의 위험성이 세계 안보를 위협하고 있다

Công LuậnCông Luận20/07/2024

[광고_1]

AI 킬러 로봇 활용의 복잡한 모습

AI가 무기 시스템을 통제할 수 있게 되면 인간의 개입 없이도 표적을 식별하고, 공격하고, 파괴할 수 있게 됩니다. 이는 심각한 법적, 윤리적 문제를 야기합니다.

오스트리아 외무 장관 알렉산더 샬렌버그는 상황의 심각성을 강조하며 "이것은 우리 세대의 오펜하이머 순간입니다."라고 말했습니다.

살인 로봇의 위험성은 세계 안보를 위협하고 있습니다.

인공지능을 활용한 로봇과 무기가 많은 국가의 군대에서 널리 활용되기 시작했습니다. 사진: 포브스

실제로, 드론과 인공지능(AI)이 전 세계 군대에서 널리 사용되면서 "병 속의 요정이 어느 정도나 나왔는가"가 시급한 문제가 되었습니다.

GlobalData의 방위 분석가인 윌슨 존스는 "러시아와 우크라이나가 현대 분쟁에서 드론을 사용하고, 미국이 아프가니스탄과 파키스탄에서 표적 타격 작전에 드론을 사용하고 있으며, 지난달에 공개된 이스라엘의 라벤더 프로그램의 일환으로도 드론을 사용하고 있는 것은 AI의 정보 처리 능력이 전 세계 군대에서 공격력을 강화하는 데 어떻게 적극적으로 활용되고 있는지를 보여준다"고 말했습니다.

런던에 있는 전쟁조사보도국(Office of War Investigative Journalism)의 조사에 따르면 이스라엘군의 라벤더 AI 시스템은 하마스 연계 인물을 식별하는 데 90%의 정확도를 보였으며, 10%는 그렇지 않은 것으로 나타났습니다. 이로 인해 AI의 식별 및 의사 결정 능력으로 인해 민간인 사망이 발생했습니다.

세계 안보에 대한 위협

이런 방식으로 AI를 활용하면 무기 시스템에서 기술을 관리할 필요성이 강조됩니다.

스톡홀름 국제 평화 연구소(SIPRI)의 인공지능 거버넌스 프로그램 수석 연구원인 알렉산더 블랜차드 박사는 Army Technology에 "무기 시스템에서 AI를 사용하는 것은, 특히 표적 지정에 사용하는 경우, 우리 인간과 전쟁과의 관계에 대한 근본적인 질문을 제기하며, 더 구체적으로는 무력 분쟁 에서 폭력을 사용하는 방법에 대한 우리의 가정에 대한 질문을 제기합니다."라고 설명했습니다. SIPRI는 글로벌 안보에 초점을 맞춘 독립 연구 그룹입니다.

살인 로봇의 위험성은 세계 안보를 위협하고 있습니다.

AI 시스템은 혼란스러운 환경에서 사용될 경우 예측할 수 없는 방식으로 작동할 수 있으며, 목표를 정확하게 식별하지 못할 수도 있습니다. 사진: MES

"AI가 군이 표적을 선정하고 무력을 행사하는 방식을 바꿀까요? 이러한 변화는 결국 수많은 법적, 윤리적, 그리고 작전적 문제를 제기합니다. 가장 큰 우려는 인도주의적 측면입니다."라고 블랜차드 박사는 덧붙였습니다.

SIPRI 전문가는 "자율 시스템의 설계 및 사용 방식에 따라 민간인을 비롯한 국제법상 보호받는 사람들이 더 큰 위험에 처할 수 있다는 우려가 많습니다."라고 설명했습니다. "AI 시스템은 특히 혼란스러운 환경에서 사용될 경우 예측 불가능하게 작동할 수 있으며, 표적을 정확하게 식별하고 민간인을 공격하지 못하거나, 전투 중이 아닌 전투원을 식별하지 못할 수 있기 때문입니다."

이 문제에 대해 자세히 설명하면서 GlobalData의 변호 분석가인 윌슨 존스는 유죄를 어떻게 판단하느냐는 문제가 의심스러울 수 있다고 지적했습니다.

존스 씨는 "현행 전쟁법에는 지휘책임이라는 개념이 있습니다."라고 말했습니다. "이는 장교, 장군 또는 기타 지휘관이 자신의 지휘 하에 있는 부대의 행동에 대해 법적 책임을 진다는 것을 의미합니다. 만약 부대가 전쟁 범죄를 저지르면, 명령을 내리지 않았더라도 장교가 책임을 져야 합니다. 전쟁 범죄를 막기 위해 가능한 모든 조치를 취했다는 것을 입증해야 할 책임은 장교에게 있습니다."

"AI 시스템에서는 상황이 복잡해집니다. IT 기술자가 책임을 져야 할까요? 시스템 설계자가 책임을 져야 할까요? 명확하지 않습니다. 만약 명확하지 않다면, 행위자들이 자신의 행동이 현행법으로 보호받지 못한다고 생각할 경우 도덕적 해이가 발생합니다."라고 존스 씨는 강조했습니다.

살인 로봇의 위험성은 세계 안보를 위협하고 있습니다.

로봇견과 함께 순찰하는 미군. 사진: 포브스

군비통제협약: 몇몇 주요 국제 협정은 특정 무기 사용을 제한하고 규제합니다. 화학무기 금지 조약, 핵확산금지조약, 그리고 특정재래식무기금지협약(CCRW)이 있는데, 이 협약은 교전 당사자에게 불필요하거나 정당화될 수 없는 고통을 초래하거나 민간인에게 무차별적으로 영향을 미치는 것으로 간주되는 특정 무기의 사용을 금지하거나 제한합니다.

"핵무기 통제를 위해서는 수십 년간의 국제 협력과 그에 따른 조약들이 이행되어야 했습니다."라고 국방 분석가 윌슨 존스는 설명합니다. "그럼에도 불구하고 우리는 1990년대까지 대기권 핵실험을 계속했습니다. 핵 비확산이 성공할 수 있었던 주요 이유는 양극화된 세계 질서 속에서 미국과 소련 간의 협력 덕분이었습니다. 하지만 그러한 협력은 더 이상 존재하지 않으며, AI를 개발하는 기술은 많은 국가들이 핵 에너지보다 더 쉽게 이용할 수 있게 되었습니다."

구속력 있는 조약을 체결하려면 모든 관련 당사자들이 군사력을 강화하는 도구를 사용하지 않겠다는 데 동의해야 합니다. 하지만 AI는 최소한의 재정적, 물질적 비용으로 군사적 효율성을 향상시킬 수 있기 때문에 이러한 방식은 효과가 없을 가능성이 높습니다.

현재 지정학적 전망

유엔 회원국들은 AI의 군사적 책임 활용의 필요성을 인정했지만, 아직 해야 할 일이 많이 남아 있습니다.

글로벌데이터(GlobalData)의 수석 분석가인 로라 페트론(Laura Petrone)은 아미 테크놀로지(Army Technology)와의 인터뷰에서 "명확한 규제 체계가 없기 때문에 이러한 주장은 대부분 희망 사항일 뿐입니다."라고 말했습니다. "특히 현재의 지정학적 상황에서 일부 국가들이 국내 방위 및 국가 안보 문제를 결정할 때 자국의 주권을 유지하고자 하는 것은 놀라운 일이 아닙니다."

페트론 여사는 EU AI법이 AI 시스템에 대한 몇 가지 요구 사항을 제시하고 있지만 군사적 목적을 위한 AI 시스템은 다루지 않는다고 덧붙였습니다.

"이러한 배제에도 불구하고, AI법은 오랫동안 기다려온 AI 적용을 위한 프레임워크를 확립하는 중요한 노력이며, 이는 향후 관련 표준의 일정 수준의 통일성으로 이어질 수 있다고 생각합니다."라고 그녀는 말했습니다. "이러한 통일성은 군사 분야의 AI에도 중요할 것입니다."

응우옌 칸


[광고_2]
출처: https://www.congluan.vn/moi-nguy-robot-sat-thu-ai-dang-de-doa-an-ninh-toan-cau-post304170.html

태그: AI 무기

댓글 (0)

No data
No data

같은 태그

같은 카테고리

호치민시: 중추절을 맞아 화려한 루옹누혹 등불 거리
피규어의 색상을 통해 중추절의 정신을 유지하다
세계에서 가장 아름다운 50대 마을 중 베트남 유일의 마을을 만나보세요
올해는 왜 노란색 별이 있는 붉은 깃발 등이 인기가 있을까요?

같은 저자

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품