사실, 과학자들이 인공지능이 인간에게 위험해질 가능성에 대해 경고한 것은 이번이 처음이 아닙니다. 2014년, 영국의 저명한 이론 물리학자 스티븐 호킹은 "인공지능의 포괄적인 발전은 인류를 파괴할 수 있다"라고 말했습니다. 그는 또한 인간이 이 위험한 기술의 연구 및 개발 과정에서 신중하지 않으면 향후 500년 안에 인공지능에 의해 완전히 대체될 것이라고 경고했습니다. 8년 전인 2015년 7월, 스티븐 호킹, 일론 머스크, 노암 촘스키 등 인공지능 기술 전문가 1,000여 명이 군사 AI 분야의 군비 경쟁 위험을 경고하고 자율 무기의 포괄적 금지를 촉구하는 청원에 서명했습니다. OpenAI가 2022년 11월 Chat GPT를 출시하면서 인공지능의 실존적 위험에 대한 또 다른 경고가 추가되었습니다. 실제로 Chat GPT의 행보는 AI가 사람들이 생각했던 것보다 어느 정도 훨씬 더 위험하다는 것을 보여줍니다.
인공지능의 잠재적 위험은 그 사용 방식에 따라 달라집니다. AI는 원래 인간의 업무, 특히 이미지 분류, 정보 검토 등 지루하고 반복적인 작업을 돕기 위해 개발되었습니다. 그러나 최근 AI의 급속한 발전과 함께, 과학자 와 기술 전문가들은 AI가 제대로 제어되지 않고 개발되거나 잘못된 목적으로 프로그래밍될 경우 인간과 사회에 심각한 결과를 초래할 수 있다는 우려를 표명하고 있습니다.
불안의 위험
인공지능은 국가 안보와 개인 안전에 위협이 될 수 있습니다. 일론 머스크는 AI가 전쟁에서 무서운 도구가 될 수 있다고 경고했습니다. 한 국가가 우수한 인공지능 시스템을 개발할 수 있다면, 다른 국가를 공격하는 데 사용할 수 있습니다. 캘리포니아 대학교 컴퓨터 과학과 스튜어트 러셀 교수는 수십 년간 인공지능을 연구해 왔습니다. 그는 AI가 초래하는 안보 위협에 대해 경고하며, 기존 기술을 통합하고 소형화함으로써 자율 공격 무기를 개발할 수 있다고 말했습니다.
스튜어트 러셀 교수와 미래생명연구소(FLI)는 킬러 로봇(슬로터봇)을 사용하여 실험을 수행했습니다. 슬로터봇은 카메라, 센서, 이미지 처리 소프트웨어, 얼굴 인식, 3그램 폭발물, 그리고 고속 마이크로프로세서를 탑재한 미세 비행 장치로, 인간 뇌보다 100배 빠른 데이터 분석 및 대응 속도를 자랑합니다. 프로그래밍 매개변수에 따라, 킬러 로봇은 클라우드 데이터에 지속적으로 접근하여 목표물에 대한 정보를 검색하고 접근 방법을 찾습니다. 목표물을 발견하면 고속으로 직진하여 3그램 폭발물을 작동시키고 두개골 깊숙이 구멍을 뚫어 순식간에 희생자를 사살합니다.
이는 AI의 가장 기본적인 수준에서의 실험일 뿐입니다. AI를 활용하여 새롭고 더욱 정교한 공격 방법을 개발한다면, 공격자의 공격 능력을 향상시켜 기존 공격보다 더 심각한 결과를 초래할 수 있습니다. AI가 주변 환경 변화에 대처하거나 대체 대상을 찾거나 대상 범위를 확장하기 위해 스스로 결정을 내릴 수 있을 정도로 발전하게 되면, 인류는 더 이상 안전하지 않게 될지도 모릅니다. 이 분야의 많은 동료들은 스튜어트 러셀 교수의 의견에 동의하며, 이처럼 암울한 미래를 막을 수 있는 가능성은 여전히 남아 있다고 생각하지만, 남은 시간은 많지 않습니다.
AI가 조직화되고 자율화되며 시스템을 제어하게 될 위험
AI는 머신 러닝을 통해 잘못 설계되거나 부적절하게 "훈련"될 수 있으며, 원치 않는 행동을 수행하여 사람과 환경에 피해를 줄 수 있습니다. 구체적인 예는 다음과 같습니다. 머신 러닝을 통해 AI는 점점 더 지능화되고 있습니다. 인공지능이 전기, 교통, 의료 , 금융 등과 같은 중요 시스템을 지원하는 수준을 넘어 지능화되면 이러한 모든 시스템을 마스터하고 제어하며 비상 상황에서 결정을 내리고 실행할 수 있습니다. AI가 추가적인 "야심찬" 목적을 "갖추게" 되면(잘못 설계되면), 신호등 시스템을 비활성화하거나 도시 철도 운영 시스템의 전원을 차단하여 교통 시스템을 교란시키고, 일련의 사고를 일으키거나, 광범위한 정전을 유발하는 등 여러 심각한 결과를 초래할 수 있습니다.
이 시나리오를 바탕으로 한 할리우드를 비롯한 여러 나라의 영화들이 많이 등장했습니다. 하지만 현재의 AI 기술로 이는 더 이상 먼 미래가 아니라 현실이 될 수 있습니다. 일론 머스크는 AI가 통제 불능으로 발전하여 인간의 개입 없이 의사 결정을 자동화할 수 있게 된다면 인류 생존에 위협이 될 수 있다고 생각합니다. 그래서 그와 수천 명의 기술 전문가들은 AI 개발 과정을 일시적으로 중단하고 투명하게 통제할 것을 요청하는 서한에 서명했습니다. 일론 머스크에 따르면, 인공지능 시스템은 매우 복잡하고 이해하기 어려우며 제어 또한 매우 어렵습니다. 투명성이 없다면, 비윤리적인 목적으로 인공지능을 사용하여 인간에게 피해를 입히는 일은 반드시 발생할 것입니다.
일자리 상실, 개인정보 침해 위험
인공지능 기술은 개인정보 수집에 사용될 경우 사생활 침해, 허위 정보 유포, 사회·정치적 안정에 악영향을 미치는 허위 정보 유포에 악용될 수 있습니다. 미국 정부 인사관리국(OPM) 네트워크 시스템이 해커의 공격을 받은 사건은 2,150만 명의 현직 및 퇴직 미국 공무원의 상세하고 민감한 개인 정보, 배우자 정보, 건강 상태, 거주지, 직업, 지문, 금융 정보 등 정부 직책에 지원한 사람들의 정보가 해커의 손에 넘어간 사건으로, 어느 국가나 조직이든 주목할 만한 사건입니다. 그러나 CIA가 OPM 데이터 절도범이 인공지능 기술을 사용하여 개인 정보를 스캔하고 위조하고 가상 스파이를 생성하여 데이터를 훔쳤다는 사실을 밝혀내면서 더욱 두려운 현실이 드러났습니다. 훔친 정보는 빅데이터 기술을 통해 분석, 분류, 특정 목적에 활용됩니다. 인공지능 기술은 인간이 단시간에 그렇게 많은 양의 정보를 처리할 수 없기 때문에 정보 절도범이 정보를 악용하는 데 걸리는 시간을 단축하는 데 도움이 됩니다.
위에서 언급한 기존 위험 외에도 AI 기술은 다음과 같은 다른 위험도 야기합니다. 과도한 의존으로 인해 사람들이 상황을 통제하지 못하고 의사 결정 능력이 저하되는 결과를 초래합니다. 인공지능은 수백만, 심지어 수억 명의 사람들이 일자리를 잃게 만들 수 있으며, 특히 지식 내용이 거의 없는 순수 육체 노동 직종에서 그렇습니다. 결과적으로 실업, 범죄, 빈부 격차와 같은 심각한 사회 문제가 더욱 심화될 것입니다. 또한 신뢰성 또한 언급해야 할 문제입니다. 의학, 형법과 같이 고도로 전문화된 분야에서 의사 결정의 신뢰성은 매우 중요합니다. 기술의 신뢰성이 충분하지 않거나 특정인이나 집단에 유리한 데이터를 기반으로 하거나 의도적으로 왜곡된 분야에서 AI를 사용하여 의사 결정을 내릴 때 이러한 결정은 심각한 결과를 초래할 가능성이 높습니다.
어떻게 예방할 수 있나요?
이러한 위험 때문에 일론 머스크와 기술 전문가들은 AI의 통제되지 않는 발전에 대해 우려하며 유엔과 국제기구에 서한을 보내 AI 개발을 엄격하게 통제하고 안전과 윤리를 보장하며, AI 기술이 인간과 사회에 유익하게 활용될 수 있도록 국제 협력을 강화할 것을 촉구했습니다. 구체적인 조치는 다음과 같습니다.
- 시스템 신뢰성 제어: AI는 엄격하고 정기적이며 지속적인 품질 테스트, 제어 및 모니터링 방법을 통해 안전성과 신뢰성을 보장하도록 설계 및 개발되어야 합니다. 이를 통해 AI 시스템이 인간의 기대에 따라 작동하고 신뢰성 부족으로 인해 원치 않는 영향이 발생하지 않도록 해야 합니다.
- 인공지능 기술은 윤리적 가치와 사회적 규범에 따라 작동하도록 프로그래밍되어야 합니다. 이러한 규칙과 기준은 명확하게 확립되어야 하며, 개인이나 조직에 해롭거나 부정적인 영향을 미치지 않도록 모니터링되어야 합니다. 또한 AI 시스템의 운영에 대한 분석, 영향 평가 및 모니터링 과정을 정기적으로 수행하여 AI 시스템이 제대로 작동하고, 사회 전체의 공통 가치를 침해하거나 훼손하지 않으며, 부정적인 영향을 유발하지 않고, 올바른 지식과 가치 전달을 보장하는지 확인해야 합니다.
![]() ![]() ![]() ![]() |
저널리즘은 인공지능의 영향을 크게 받는 산업 중 하나입니다. 미래에는 라디오 프로그램의 진행자가 OFF를 읽어주는 일이 없어지고, TV 프로그램의 진행은 가상 MC가 맡게 될 것입니다. |
- 완전한 재평가를 위해 최소 6개월 동안 AI 시스템 "훈련"을 일시 중단해야 합니다. 이 일시 중단은 공개적이고 통제되어야 하며, 훈련에 참여하는 모든 주요 관계자가 참여해야 합니다. 필요한 경우 정부는 일시적인 모라토리엄을 시행해야 합니다. 이는 AI 개발을 완전히 중단하는 것을 의미하는 것이 아니라, 다른 개발 모델을 향한 위험한 경쟁을 잠시 중단하여 AI 시스템을 더욱 정확하고, 안전하고, 이해하기 쉽고, 투명하고, 일관성 있고, 신뢰할 수 있고, 충실하게 만드는 것입니다. 이는 일론 머스크와 그의 동료들이 공개 서한에서 요구하는 포괄적인 해결책이지만, 실현 가능성은 매우 낮습니다. 모든 독립 연구소가 이처럼 구속력이 없고 국가 간 경계를 넘나드는 요구를 준수하는 것은 매우 어렵습니다.
- 향후 AI가 안전하게 개발되고 활용될 수 있도록 국가 및 독립적인 AI 연구 기관 간의 협력과 정보 공유를 강화해야 합니다. 협력과 정보 공유는 향후 발생할 수 있는 위험을 신속하게 경고하고 예방하기 위한 조치이기도 합니다.
일반적으로 AI는 우리 주변 어디에나 존재하며, 인공지능 이 시를 쓰고, 음악을 쓰고, 기사를 쓴다는 이야기는 더 이상 허구가 아닌 현실이 되었습니다. 이 글의 저자는 컴퓨터와 휴대폰에서 인공지능 기술을 직접 활용하여 글쓰기 과정을 더욱 편리하고 빠르게 만들었습니다. 구체적으로, 이 글의 장과 몇 가지 아이디어는 AI가 제시한 것이며, 더 구체적으로 이 글에 사용된 모든 사진은 AI가 제작한 것입니다. 인공지능 기술은 인간의 일과 삶의 질을 향상시키는 데 매우 유용하지만, 이론 물리학자 스티븐 호킹이 예측했듯이 통제 불능 상태가 되어 미래에 인간을 대체할 위험이 되지 않도록 엄격하게 통제되어야 합니다.
기사 및 사진: HUU DUONG[광고_2]
원천
댓글 (0)