AI 통제력 상실의 위험성
인류는 지평선에 나타난 유령을 무시하고 있는 듯합니다. 이는 인공지능(AI)으로 인한 세계 핵전쟁의 유령입니다. 유엔 사무총장 안토니오 구테흐스가 이에 대해 경고했습니다. 하지만 지금까지 핵무장국들은 이 재앙적 위협을 협상하기 위해 함께 뭉치지 못했습니다.
인공지능(AI)의 급속한 발전으로 인해 AI가 핵무기 발사 과정에 개입할 위험이 커지고 있습니다. 삽화
미국, 러시아, 중국, 영국, 프랑스 등 5대 핵 강국은 오랫동안 "인간 참여 원칙"에 대한 비공식적인 합의를 이루어 왔습니다. 이는 각 국가가 핵무기 발사 결정에 인간이 참여할 수 있도록 하는 시스템을 갖추어야 한다는 것을 의미합니다.
5대 강대국 중 어느 누구도 핵발사 지휘체계에 AI를 배치했다고 밝히지 않았습니다. 인도 뭄바이에 있는 국제 연구 기관인 Strategic Foresight Group의 회장인 Sundeep Waslekar 박사에 따르면 이는 사실이지만 오해의 소지가 있습니다.
AI는 이미 위협 탐지 및 대상 선택에 사용되고 있습니다. AI 기반 시스템은 센서, 위성, 레이더에서 수집한 방대한 양의 데이터를 실시간으로 분석하고, 들어오는 미사일 공격을 분석하여 대응 방안을 제시합니다.
그런 다음 운영자는 다양한 출처에서 발생한 위협을 교차 검사하고 적의 미사일을 요격할지, 아니면 보복 공격을 개시할지 결정합니다.
"현재 운영자가 처리할 수 있는 응답 시간은 10분에서 15분입니다. 2030년까지 이 시간은 5분에서 7분으로 단축될 것입니다."라고 Sundeep Waslekar는 말했습니다. 최종 결정은 인간이 내리겠지만, AI의 예측 및 처방 분석의 영향을 받게 될 것입니다. AI는 빠르면 2030년대에 출시 결정의 원동력이 될 수 있습니다.
문제는 AI가 실수를 할 수 있다는 것이다. 위협 탐지 알고리즘은 미사일 공격이 존재하지 않는 경우에도 미사일 공격이 있다고 표시할 수 있습니다. 컴퓨터 오류, 네트워크 침입 또는 신호를 가리는 환경적 요인으로 인해 발생할 수 있습니다. 운영자가 2~3분 내에 다른 출처에서 온 허위 경보를 확인하지 않으면 보복 공격이 발생할 수 있습니다.
아주 작은 오류, 엄청난 재앙
범죄 예측, 얼굴 인식, 암 진단 등 많은 민간 부문에서 AI를 활용할 경우 오차 범위가 10%에 불과한 것으로 알려져 있습니다. 선딥 와슬레카 씨에 따르면, 핵 조기 경보 시스템의 오차 한계는 약 5% 정도입니다.
향후 10년 동안 이미지 인식 알고리즘의 정확도가 향상되면 이 오차 한계는 1~2%로 떨어질 수 있습니다. 하지만 1%의 오차만 있어도 세계 핵전쟁이 일어날 수 있습니다.
AI의 오류로 인해 핵 공격이나 보복 결정이 내려질 수 있습니다. 사진: 현대전쟁연구소
새로운 맬웨어가 위협 탐지 시스템을 우회할 수 있기 때문에 향후 2~3년 동안 위험이 증가할 수 있습니다. 맬웨어는 감지되지 않도록 적응하여 자동으로 대상을 식별하고 자동으로 공격합니다.
냉전 동안에는 여러 가지 '위험한 정책'이 있었습니다. 1983년, 소련의 위성이 실수로 미국이 발사한 미사일 5개를 감지했습니다. 러시아 세푸호프-15 사령부 장교인 스타니슬라프 페트로프는 이것이 오보라고 결론지었고 상관들에게 경고하여 반격을 개시하도록 하지 않았습니다.
1995년, 올레네고르스크 레이더 기지는 노르웨이 해안에서 미사일 공격을 감지했습니다. 러시아의 전략적 군대는 최고 경계 태세에 돌입했고, 당시 러시아 대통령 보리스 옐친에게 핵 가방이 건네졌습니다. 그는 그것이 실수라고 의심하여 버튼을 누르지 않았습니다. 그것은 과학 로켓이었습니다. 두 상황 모두에 대한 대응책을 결정하기 위해 AI를 사용한다면 그 결과는 재앙적일 수 있습니다.
현재 초음속 미사일은 AI 대신 기존의 자동화를 사용합니다. 이들은 마하 5에서 마하 25의 속도로 비행하면서 레이더 감지를 피하고 비행 경로를 제어할 수 있습니다. 초강대국들은 AI를 탑재한 초음속 미사일을 개량해 이동 표적을 즉시 찾아내 파괴할 계획이며, 살상 결정권은 인간에서 기계로 넘어갈 것입니다.
인간의 통제를 벗어나 작동하는 AI 모델이 등장할 수 있는 일반 인공지능을 개발하려는 경쟁도 있습니다. 이런 일이 일어나면 AI 시스템은 스스로를 강화하고 복제하는 법을 배우게 되며, 의사 결정 과정을 맡게 됩니다. 이러한 AI가 핵무기 관련 의사결정 지원 시스템에 통합되면 기계는 파괴적인 전쟁을 일으킬 수 있게 될 것입니다.
행동할 시간이다
많은 전문가들은 위와 같은 위험에 직면하여 인류는 단순히 "인간이 모든 것을 알고 있다"는 슬로건을 반복하는 데 그치지 않고 핵전쟁의 위험을 최소화하기 위해 주요 강대국 간의 포괄적인 협정이 필요하다고 생각합니다.
이 협정에는 투명성, 책임성 및 협력에 대한 조치가 포함되어야 합니다. 시험 및 평가를 위한 국제 표준 위기 커뮤니케이션 채널 국가 감독 위원회 인간 운영자를 우회할 수 있는 공격적인 AI 모델을 금지하는 규칙.
안토니우 구테흐스 유엔 사무총장이 1945년 원자폭탄이 투하된 히로시마에서 열린 평화 기념식에 참석하고 있다. 사진: 유엔
지정학적 변화로 인해 그러한 조약을 체결할 기회가 생겨나고 있습니다. 예를 들어, 중국과 미국의 주요 AI 전문가들은 AI 위험에 대한 여러 차례 트랙 2 대화에 참여했으며, 지난 11월에는 전 미국 대통령 조 바이든과 중국 국가주석 시진핑이 공동 성명을 발표했습니다.
선딥 와슬레카 박사에 따르면, 억만장자 엘론 머스크는 AI가 제기하는 실존적 위험으로부터 인류를 구해야 한다는 필요성을 강력히 주장하는 인물입니다. 머스크 씨는 현재 미국 대통령인 도널드 트럼프에게 조 바이든 대통령과 시진핑 주석의 공동 성명을 조약으로 전환하라고 촉구할 수도 있습니다.
Sundeep Waslekar 박사에 따르면, 핵 AI 과제에는 러시아의 참여도 필요합니다. 올해 1월까지 러시아는 우크라이나 문제가 논의되지 않는 한 AI와의 융합을 포함한 모든 핵 위험 감소 조치에 대해 논의하기를 거부했습니다.
도널드 트럼프 대통령이 블라디미르 푸틴 러시아 대통령과 대화하여 양국 관계를 개선하고 우크라이나 전쟁을 종식시키기로 하면서, 러시아도 이제 논의에 문을 열었을 가능성이 있습니다.
올해 2월, JD 밴스 미국 부통령이 파리 AI 액션 서밋에서 연설한 데 이어, 신미국안보센터(CNAS)도 "AI 종말 방지: 핵무기와 인공지능의 중심지에서 벌어지는 미국-중국-러시아 경쟁"이라는 제목의 보고서를 발표했습니다.
보고서는 AI와 핵 기술의 연계로 인한 가장 심각한 위험을 파악하고, 미국 행정부가 중국과 러시아와 함께 포괄적인 위험 완화 및 위기 관리 메커니즘을 구축할 것을 촉구합니다.
이에 앞서 지난해 9월 미국을 비롯한 60여 개국이 한국 서울에서 열린 군 내 책임 있는 AI(REAIM) 정상회의에서 군 내 AI의 책임 있는 사용을 관리하기 위한 '행동 계획'을 채택한 바 있다. 이번 회의는 작년 헤이그에서 열린 회의에 이어 두 번째로 열리는 이런 종류의 회의입니다. 이러한 움직임은 AI가 일으키는 핵전쟁의 위험이 공상과학 소설에 나오는 이야기가 아니라는 것을 보여줍니다.
세계는 점점 더 시급해지는 실존적 문제에 직면해 있으며, 핵보유국은 "핵무기 사용에 대한 모든 결정은 기계나 알고리즘이 아닌 사람에 의해 내려져야 한다"는 실질적인 조치를 취해야 합니다. 이는 유엔 사무총장 안토니오 구테흐스가 촉구한 바와 같습니다.
응우옌 칸
댓글 (0)