AI 통제력 상실의 위험성
인류는 지평선 위의 유령을 무시하는 듯합니다. 바로 인공지능(AI)이 초래하는 세계 핵전쟁이라는 유령입니다. 안토니오 구테흐스 유엔 사무총장은 이에 대해 경고했습니다. 그러나 지금까지 핵무장 국가들은 이 재앙적인 위협에 맞서기 위해 힘을 합치지 않았습니다.
인공지능(AI)의 급속한 발전은 AI가 핵무기 발사 과정에 개입할 위험을 제기합니다. 일러스트 사진
미국, 러시아, 중국, 영국, 프랑스 등 5대 핵 강국은 오랫동안 "인간 참여 원칙"에 대한 비공식적인 합의를 이루어 왔습니다. 이는 각 국가가 핵무기 발사 결정에 인간이 참여할 수 있도록 하는 시스템을 갖추어야 한다는 것을 의미합니다.
5대 강대국 중 어느 누구도 핵 발사 지휘 체계에 AI를 배치했다고 밝히지 않았습니다. 인도 뭄바이에 있는 국제 연구 기관인 전략예측그룹(Strategic Foresight Group)의 회장인 선딥 와슬레카르 박사에 따르면, 이는 사실이지만 오해의 소지가 있습니다.
AI는 이미 위협 탐지 및 표적 선정에 활용되고 있습니다. AI 기반 시스템은 센서, 위성, 레이더에서 수집된 방대한 양의 데이터를 실시간으로 분석하여 유입되는 미사일 공격을 분석하고 대응 방안을 제시합니다.
그런 다음 운영자는 다양한 출처에서 발생한 위협을 교차 검사하고 적의 미사일을 요격할지, 아니면 보복 공격을 개시할지 결정합니다.
"현재 운영자가 처리할 수 있는 대응 시간은 10분에서 15분입니다. 2030년까지 이 시간은 5분에서 7분으로 단축될 것입니다."라고 선딥 와슬레카는 말했습니다. "최종 결정은 인간이 내리겠지만, AI의 예측 및 처방 분석의 영향을 받게 될 것입니다. AI는 빠르면 2030년대에 발사 결정을 주도할 수 있습니다."
문제는 AI가 틀릴 수 있다는 것입니다. 위협 탐지 알고리즘은 실제로는 아무 일도 일어나지 않는데 미사일 공격을 감지할 수 있습니다. 이는 컴퓨터 오류, 네트워크 침입, 또는 신호를 흐리게 만드는 환경적 요인 때문일 수 있습니다. 인간 운영자가 다른 출처에서 발생한 오탐지를 2~3분 내에 확인하지 못하면 보복 공격을 유발할 수 있습니다.
아주 작은 오류, 엄청난 재앙
범죄 예측, 얼굴 인식, 암 진단 등 여러 민간 부문에서 AI를 활용하는 데는 오차 범위가 10%에 달하는 것으로 알려져 있습니다. 선딥 와슬레카에 따르면, 원자력 조기 경보 시스템의 오차 범위는 약 5%에 달할 수 있습니다.
향후 10년 동안 이미지 인식 알고리즘의 정확도가 향상됨에 따라 이 오차 범위는 1~2%로 줄어들 수 있습니다. 하지만 1%의 오차 범위라도 발생하면 전 세계적인 핵전쟁이 발발할 수 있습니다.
핵 공격이나 보복 결정은 AI 오류로 인해 발생할 수 있습니다. 사진: 모던워인스티튜트
위협 탐지 시스템을 우회할 수 있는 새로운 악성코드가 등장함에 따라 향후 2~3년 동안 위험이 증가할 수 있습니다. 이러한 악성코드는 탐지를 피하고, 자동으로 대상을 식별하여 공격하도록 적응할 것입니다.
냉전 시대에는 여러 차례 "벼랑 끝 전술"이 있었습니다. 1983년, 소련 위성이 미국이 발사한 미사일 5발을 잘못 탐지했습니다. 러시아 세푸코프-15 사령부 장교인 스타니슬라프 페트로프는 이를 오보로 판단하고 상관들에게 경고하여 반격을 개시하도록 하지 않았습니다.
1995년, 올레네고르스크 레이더 기지는 노르웨이 해안에서 미사일 공격을 감지했습니다. 러시아 전략군은 최고 경계 태세에 돌입했고, 당시 러시아 대통령이었던 보리스 옐친에게 핵 서류 가방이 건네졌습니다. 그는 이것이 실수라고 의심하여 버튼을 누르지 않았습니다. 하지만 그것은 과학 미사일로 밝혀졌습니다. 만약 두 상황 모두에서 AI가 대응책을 결정했다면, 그 결과는 재앙적일 수 있었습니다.
오늘날 극초음속 미사일은 AI가 아닌 기존의 자동화 기술을 사용합니다. 마하 5에서 마하 25의 속도로 비행하며 레이더 탐지를 피하고 비행 경로를 제어할 수 있습니다. 초강대국들은 AI를 탑재하여 이동 표적을 즉시 탐지하고 파괴할 수 있도록 극초음속 미사일을 개량할 계획이며, 이를 통해 살상 결정권이 인간에서 기계로 이전될 것입니다.
또한, 일반 인공지능 개발 경쟁이 벌어지고 있는데, 이는 인간의 통제를 벗어나 작동하는 AI 모델로 이어질 수 있습니다. 이러한 상황이 발생하면 AI 시스템은 스스로를 강화하고 복제하는 법을 배우면서 의사 결정 과정을 장악하게 될 것입니다. 이러한 AI가 핵무기 의사결정 지원 시스템에 통합되면, 기계는 파괴적인 전쟁을 일으킬 수 있게 될 것입니다.
행동할 시간이다
많은 전문가들은 위와 같은 위험에 직면하여 인류는 단순히 "인간이 모든 것을 알고 있다"는 슬로건을 반복하는 데 그치지 않고 핵전쟁의 위험을 최소화하기 위해 주요 강대국 간의 포괄적인 협정이 필요하다고 생각합니다.
이 협정에는 투명성, 책임성, 협력 조치, 테스트 및 평가를 위한 국제 표준, 위기 커뮤니케이션 채널, 국가 감독 위원회, 인간 운영자를 우회할 수 있는 공격적인 AI 모델을 금지하는 규칙이 포함되어야 합니다.
안토니우 구테흐스 유엔 사무총장이 1945년 원자폭탄이 투하된 히로시마에서 열린 평화 기념식에 참석하고 있다. 사진: 유엔
지정학적 변화는 이러한 협정 체결의 기회를 만들어내고 있습니다. 예를 들어 중국과 미국의 주요 AI 전문가들은 AI 위험에 대한 여러 차례의 트랙 투(track-2) 대화에 참여해 왔으며, 이는 지난 11월 조 바이든 전 미국 대통령과 시진핑 중국 국가주석의 공동 성명으로 이어졌습니다.
억만장자 일론 머스크는 AI가 제기하는 실존적 위험으로부터 인류를 구해야 한다는 강력한 주장을 펼치고 있으며, 머스크는 현 미국 대통령인 도널드 트럼프에게 조 바이든과 시진핑의 공동 성명을 조약으로 전환할 것을 촉구할 가능성이 있다고 선딥 와슬레카 박사가 말했습니다.
선딥 와슬레카 박사에 따르면, AI-핵 과제는 러시아의 참여를 필요로 합니다. 올해 1월까지 러시아는 우크라이나 문제가 거론되지 않는 한 AI와의 융합을 포함한 핵 위험 감소 조치에 대한 논의를 거부해 왔습니다.
도널드 트럼프 대통령이 블라디미르 푸틴 러시아 대통령과 대화하여 양국 관계를 개선하고 우크라이나 전쟁을 종식시키기로 하면서, 러시아도 이제 논의에 문을 열었을 가능성이 있습니다.
올해 2월, JD 밴스 미국 부통령이 파리 AI 액션 서밋에서 연설한 후, 새로운 미국 안보 센터(CNAS)도 "AI 종말 방지: 핵무기와 인공지능의 중심지에서 벌어지는 미국-중국-러시아 경쟁"이라는 제목의 보고서를 발표했습니다.
보고서는 AI와 핵 기술의 연계로 인한 가장 심각한 위험을 파악하고, 미국 행정부가 중국과 러시아와 함께 포괄적인 위험 완화 및 위기 관리 메커니즘을 구축할 것을 촉구합니다.
이에 앞서 작년 9월, 미국을 포함한 약 60개국이 서울에서 열린 '군 내 책임 있는 AI(Responsible AI in Military, REAIM) 정상회의'에서 군 내 AI의 책임 있는 사용을 관리하기 위한 "행동 계획"을 채택했습니다. 이는 작년 헤이그에서 열린 회의에 이어 두 번째 회의였습니다. 이러한 움직임은 AI가 유발하는 핵전쟁의 위험이 공상과학 소설에 그치지 않음을 보여줍니다.
세계는 점점 더 시급해지는 실존적 문제에 직면해 있으며, 핵보유국은 "핵무기 사용에 대한 모든 결정은 기계나 알고리즘이 아닌 사람에 의해 내려져야 한다"는 실질적인 조치를 취해야 합니다. 이는 유엔 사무총장 안토니오 구테흐스가 촉구한 바와 같습니다.
응우옌 칸
댓글 (0)