뛰어난 기능을 갖춘 인공지능(AI) 챗봇인 ChatGPT의 예상치 못한 빠른 개발은 인간의 삶, 특히 업무 방식을 어느 정도 변화시켰습니다. 그러나 이 기술과 관련된 위험은 많은 국가의 당국에서 우려를 불러일으켰으며, 특히 사용자 데이터에 대한 우려가 커졌습니다.
세계적 으로 AI를 효과적으로 관리하고 사용자에게 높은 신뢰성을 보장할 수 있는 탄탄한 새로운 법적 프레임워크가 아직 부족한 상황에서, 많은 국가에서는 이 기술이 가져오는 위험을 최소화하기 위해 ChatGPT와 AI의 사용을 전반적으로 규제하는 조치를 취하기 시작했습니다.
많은 국가들이 AI에 대해 "행동"을 취하고 있습니다.
이탈리아는 ChatGPT 금지 결정을 내리는 데 앞장서고 있습니다.
3월 31일, 이탈리아 당국은 개인정보 보호 문제와 이탈리아의 요구 사항인 13세 이상 사용자 인증을 앱이 이행하지 않았다는 이유로 ChatGPT 앱에 대한 일시적인 금지 조치를 발표했습니다. 동시에 이탈리아는 OpenAI가 사용자 데이터를 어떻게 사용하는지에 대한 조사를 시작할 것이라고 밝혔습니다.
이탈리아의 ChatGPT 금지 이후, 여러 국가가 해당 앱에 대한 조치를 취했습니다. (사진: 로이터)
이탈리아의 데이터 보호 기관은 ChatGPT를 만든 회사인 OpenAI에 4월 말까지 데이터 보호 및 개인정보 보호 요건을 충족하지 못하면 이탈리아에서 정상적인 운영을 재개하지 못하게 했습니다.
이탈리아의 결정 직후, 많은 국가가 보안 및 데이터 개인정보 보호와 관련된 우려로 인해 ChatGPT를 차단하는 이탈리아의 방식을 따르기 시작했습니다.
프랑스와 아일랜드의 개인정보 보호 및 보안 규제 기관은 이탈리아의 규제 기관에 연락하여 금지 사유를 알아보았습니다. 프랑스의 개인정보 보호 감독 기관인 CNIL은 4월 11일 ChatGPT에 대한 여러 불만 사항을 조사하고 있다고 밝혔습니다.
독일 데이터 보호 위원은 베를린이 ChatGPT를 차단하면서 "이탈리아의 발자취를 따를 가능성이 높다"고 말했습니다.
특히, 유럽 데이터 보호 기관(EDPB)은 4월 13일 ChatGPT 태스크포스를 설립하며 다음과 같이 밝혔습니다. "EDPB 회원국들은 이탈리아 데이터 보호 기관이 ChatGPT 서비스와 관련하여 OpenAI에 대해 취한 최근 강제 조치에 대해 논의했습니다. EDPB는 협력을 증진하고 가능한 강제 조치에 대한 정보를 교환하기 위해 태스크포스를 출범하기로 결정했습니다."
또한 유럽연합(EU) 의원들은 EU AI법에 대해서도 논의하고 있는데, 이는 환경에 영향을 미치는 콘텐츠, 예측, 권장 사항 또는 결정을 생성하는 시스템을 포함하여 AI를 사용하여 제품이나 서비스를 제공하는 모든 사람을 규제하는 것입니다. EU는 또한 다양한 AI 도구를 위험 수준에 따라 낮음부터 허용할 수 없음까지 분류할 것을 제안했습니다.
스페인의 데이터 보호 기관인 AEPD는 ChatGPT의 데이터 침해에 대한 예비 조사를 실시한다고 발표했습니다.
호주의 과학기술부는 4월 12일 정부가 AI에 대응하는 방법에 대한 자문을 과학 자문 위원회에 요청했으며 다음 단계를 고려하고 있다고 발표했습니다.
이러한 움직임은 AI가 얼마나 안전한지에 대한 의문과 정부가 관련 위험을 완화하기 위해 무엇을 할 수 있는지에 대한 의문을 제기합니다. 컨설팅 회사 KPMG와 호주 정보 산업 협회가 3월에 발표한 보고서에 따르면, 호주인의 3분의 2는 AI의 오용을 방지하기 위한 법률이나 규정이 부족하다고 답했으며, 설문에 참여한 사람 중 직장에서 AI가 안전하게 사용되고 있다고 믿는 사람은 절반도 되지 않았습니다.
많은 국가가 AI 기술을 규제하기 위한 조치를 취하기 시작했습니다. (사진: 로이터)
영국 정부는 새로운 규제 기관을 만드는 대신, AI 규제 책임을 인권, 건강 및 안전, 경쟁 기관으로 분할할 계획이라고 밝혔습니다.
최근 미국 상원 민주당 원내대표인 척 슈머는 국가에 잠재적으로 재앙적인 피해를 입힐 수 있는 AI 규제 프레임워크를 초안하고 발표했습니다. 슈머의 제안은 기업이 AI 기술을 출시하거나 업데이트하기 전에 독립적인 전문가가 검토하고 테스트하도록 허용해야 한다는 내용을 담고 있습니다.
앞서 4월 11일, 미국 상무부는 AI 책임 조치에 대한 대중의 의견을 구하고 있다고 밝혔습니다.
한편, 미국 인공지능 및 디지털 정책 센터는 상무위원회에 OpenAI가 GPT-4의 새로운 상업용 릴리스를 출시하는 것을 차단해 달라고 요청하면서, 해당 기술이 "편견적이고 기만적이며 개인정보 보호와 공공 안전에 위험을 초래한다"고 주장했습니다.
한편, 일본의 디지털 전환 장관인 고노 타로는 4월 말에 예정된 G7 디지털 장관 회의에서 ChatGPT를 포함한 AI 기술을 논의하고 통일된 G7 메시지를 전달하기를 원한다고 밝혔습니다.
중국은 최근 AI 서비스를 규제하기 위한 계획된 조치를 발표하면서, AI 기술을 제공하는 회사는 서비스를 시장에 출시하기 전에 당국에 보안 평가를 제출해야 한다고 밝혔습니다.
전문가들은 AI의 위험성을 경고합니다.
일부 전문가들은 AI가 "핵 수준의 재앙"으로 이어질 수 있다고 말한다. (사진: 로이터)
4월 초 스탠포드 대학 인공지능 연구소가 발표한 조사에 따르면, 연구자의 36%가 AI가 "핵 수준의 재앙"으로 이어질 수 있다고 믿는 것으로 나타났습니다. 이는 이 기술의 급속한 발전에 대한 기존의 우려를 더욱 강조합니다.
AI의 73%는 '혁명적 사회 변화'를 가져올 것으로 전망된다.
보고서는 이러한 기술의 역량이 10년 전만 해도 상상도 할 수 없었을 뿐 아니라, 오히려 환상적이고 편향적이며 사악한 목적으로 악용될 위험이 있다고 밝혔습니다. 이로 인해 사용자가 이러한 서비스를 이용할 때 윤리적 문제가 발생합니다.
보고서는 또한 AI와 관련된 "사건 및 논란"의 수가 지난 10년 동안 26배 증가했다고 지적했습니다.
지난달 억만장자 일론 머스크와 애플 공동 창립자 스티브 워즈니악은 Open AI의 GPT-4 챗봇보다 더 강력한 AI 시스템의 훈련을 일시 중단할 것을 요구하는 서한에 서명한 수천 명의 기술 전문가 중 한 명입니다. 그들은 "강력한 AI 시스템은 그 영향이 긍정적일 것이고 위험이 관리 가능할 것이라고 확신할 때에만 개발되어야 합니다."라고 말했습니다.
용강(로이터, AL자지라, ABC)
[광고_2]
원천
댓글 (0)