(Baonghean.vn) - 이탈리아는 최근 이탈리아 데이터 보호 기관(GPDP)이 엄격한 유럽 개인정보 보호 규정 위반 의심에 대한 조사가 진행되는 가운데 OpenAI에 이탈리아 사용자 데이터 처리를 일시적으로 중단하라고 명령하면서 ChatGPT를 금지한 최초의 서방 국가가 되었습니다.
이탈리아의 움직임에 대응하여 전 세계 많은 국가가 인공지능(AI)과 관련된 규정을 발표하는 것을 고려하고 있으며, 일부 정부는 이탈리아와 함께 이 기술을 금지하는 것도 고려하고 있습니다.
일러스트 사진. |
3월 31일, 이탈리아 정부는 ChatGPT 개발사인 OpenAI가 수백만 명의 이탈리아 국민의 개인정보를 학습 데이터에 사용하는 것을 중단하도록 요구하는 긴급 임시 명령을 발표했습니다. 이탈리아 정부 의 이러한 금지 조치는 ChatGPT가 가까운 미래에 직면할 수 있는 법적 문제의 시작이 될 수 있습니다.
GDPR에 따르면 OpenAI는 ChatGPT에서 개인 정보를 사용할 법적 권리가 없습니다. 이탈리아 IP 주소를 사용하는 사용자를 위해 온라인에 게시한 성명에서 OpenAI는 데이터 보호 당국의 요청에 따라 이탈리아 사용자의 접근을 차단했음을 알려드리게 되어 유감스럽게 생각합니다.
GDPR은 OpenAI가 ChatGPT 사용자의 연령을 확인하지 않았으며, 엄청난 양의 개인 데이터를 수집하고 저장하는 것을 정당화할 법적 근거가 없다고 비난했습니다.
이 기관은 AI 개발을 방해하려는 의도는 없지만, AI 제품을 개발하는 회사는 이탈리아와 유럽 시민의 개인 데이터를 보호하기 위한 규정을 준수해야 한다고 덧붙였습니다.
이는 OpenAI가 유럽 연합의 일반 데이터 보호 규정(GDPR) 위반 가능성을 조사하는 당국에 답변해야 한다는 것을 의미합니다. 마이크로소프트의 지원을 받는 OpenAI는 GDPR에 따라 20일 이내에 문제를 해결하지 못할 경우 2천만 유로(미화 2,180만 달러), 즉 연간 글로벌 매출의 4%에 해당하는 벌금을 부과받을 수 있습니다.
OpenAI는 지난달 이탈리아에서 ChatGPT Plus 구독을 구매한 모든 사용자에게 환불을 제공할 예정이며, 서비스 중단 기간 동안 사용자에게 요금이 청구되지 않도록 구독 갱신을 "일시 중단"한다고 밝혔습니다. OpenAI는 "저희는 사용자의 개인정보 보호에 전념하고 있으며, GDPR 및 기타 개인정보 보호법을 준수하여 ChatGPT를 제공하고 있다고 확신합니다."라고 밝혔습니다.
Open AI는 이탈리아 데이터 규제 기관과 협력하여 ChatGPT에 대한 접근을 곧 복구할 것이라고 밝혔습니다. OpenAI는 이탈리아에서 ChatGPT 사용이 금지된 후 사용자들에게 보낸 성명에서 "이탈리아의 많은 사용자들이 ChatGPT가 일상 업무에 유용하다고 말씀해 주셨으며, 곧 이 기능을 다시 도입할 수 있기를 기대합니다."라고 밝혔습니다.
이탈리아의 ChatGPT 금지 이후, 추가 금지가 있을 것인가?
이탈리아의 조치가 서방 규제 기관이 ChatGPT에 대해 취한 첫 번째 조치일 수 있지만, 다른 유럽 국가들도 ChatGPT에 대한 일시적인 금지 조치 이후 며칠 동안 유사한 우려를 제기했습니다. 보도에 따르면 프랑스, 독일, 아일랜드는 이탈리아 데이터 보호 당국에 연락하여 조사 결과에 대한 추가 정보를 요청했습니다.
더 광범위하게, 유럽에서 ChatGPT에 대한 반발은 ChatGPT와 같은 혁신적인 AI 모델 개발과 관련된 개인정보 보호 우려를 시사합니다. 이러한 모델은 종종 방대한 인터넷 데이터를 기반으로 학습됩니다. Wired의 한 기사는 노르웨이 데이터 보호 기관의 국제 업무 책임자인 토비아스 주딘의 말을 인용하며, "인터넷에서 찾을 수 있는 모든 것을 검색하는 것만이 사업 모델이라면 심각한 문제가 될 수 있다"고 말했습니다.
주빈은 불법적으로 수집되었을 가능성이 있는 데이터를 기반으로 모델이 구축될 경우, 이러한 도구를 합법적으로 사용할 수 있는지에 대한 의문이 제기된다고 덧붙였습니다. 주빈은 또한 이탈리아의 이번 결정이 더 시급한 문제들을 부각한다고 지적했습니다. 근본적으로, 현재까지의 AI 개발에는 심각한 결함이 있을 수 있습니다.
이탈리아의 금지 조치 이전에도 AI 개발에 대한 더 엄격한 규제를 요구하는 목소리가 있었습니다. 실제로 3월 22일, 수백 명의 저명한 AI 전문가, 기술 리더, 과학자 들이 서명한 공개 서한은 OpenAI의 GPT-4 언어 모델보다 더 강력한 AI 기술의 개발 및 테스트가 초래할 수 있는 위험을 고려하여 해당 기술의 개발 및 테스트를 중단할 것을 촉구했습니다.
정부조차도 AI 기술의 발전 속도를 따라잡기 위해 고군분투하고 있습니다. 예를 들어 영국은 AI 규제 계획을 발표했습니다. 정부는 새로운 규제를 만드는 대신, 각 분야 규제 기관에 기존 AI 규칙을 채택하도록 요청했습니다. 영국의 제안에는 ChatGPT가 직접적으로 언급되지는 않았지만, 기업이 제품에 AI를 적용할 때 따라야 할 몇 가지 기본 원칙(안전, 투명성, 공정성, 책임성, 경쟁력 등)이 명시되어 있습니다.
한편, 조 바이든 미국 대통령도 AI의 위험성 여부는 아직 불확실하지만, 기술 기업들은 제품을 출시하기 전에 안전성을 확보할 책임이 있다고 강조했습니다. 로이터 통신 보도에서 바이든 대통령은 과학기술 자문위원들에게 AI가 질병과 기후 변화 해결에 도움이 될 수 있지만, 사회, 국가 안보, 그리고 경제에 대한 잠재적 위험을 해결하는 것이 중요하다고 말했습니다.
이탈리아 당국이 AI 챗봇에 대해 조치를 취한 것은 이번이 처음이 아닙니다. GDPR은 이전에도 사용자의 개인 정보를 이용했다는 이유로 Replika AI를 금지한 바 있습니다. Replika는 2017년에 설립된 스타트업으로, 각 사용자와 채팅할 수 있는 맞춤형 아바타를 제공합니다. 감정을 개선하는 "가상 친구"로 광고되었지만, 이탈리아 규제 당국은 사용자의 기분을 방해하여 "발달 단계 또는 취약한 심리 상태에 있는 개인의 위험을 증가시킬 수 있다"고 밝혔습니다.
이탈리아의 금지령은 유럽의 다른 개인정보 보호 규제 기관의 관심을 끌었는데, 이들은 AI 챗봇에 대해 더 가혹한 조치가 필요한지 검토하고 있습니다.
이탈리아의 금지령에 대응하여 OpenAI는 무엇을 하고 있나요?
이탈리아의 ChatGPT 금지령이 발표된 직후, ChatGPT 개발사인 OpenAI는 금지령으로 이어진 우려를 해소하기 위한 대책을 발표할 계획이었습니다. OpenAI는 사용자 데이터 처리 및 연령 확인 방식에 대해 더욱 투명하게 공개하겠다고 약속했습니다.
ChatGPT 제작사는 "AI 안전에 대한 접근 방식"이라는 제목의 블로그 게시물에서 사람들에게 실질적인 위험을 초래하는 행동을 퇴치하기 위한 정책을 개발하기 위해 노력하고 있다고 밝혔습니다.
OpenAI는 "우리는 데이터를 서비스 판매, 광고, 또는 개인 프로필 구축에 사용하지 않습니다. 데이터를 사용하여 사용자에게 더 유용한 모델을 개발합니다. 일부 학습 데이터에는 공개 인터넷에서 제공되는 개인 정보가 포함되어 있지만, 우리는 모델이 개인이 아닌 세상에 대해 학습하기를 원합니다."라고 덧붙였습니다.
2022년 말 출시 이후 ChatGPT는 전 세계적으로 "열풍"을 일으켰고, 경쟁사들도 유사한 서비스를 출시했습니다. ChatGPT 사용자는 출시 2개월 만인 2023년 1월 말까지 1억 명을 돌파하며 역사상 가장 빠르게 성장하는 소비자 애플리케이션이 되었습니다.
[광고_2]
소스 링크
댓글 (0)