미국 최대 은행인 JPMorgan Chase, Amazon, 기술 회사 Accenture는 모두 데이터 보안 우려로 인해 직원들의 ChatGPT 사용을 제한했습니다.
CNN에 따르면, 이러한 기업들의 우려는 타당합니다. 3월 20일, OpenAI의 챗봇에서 사용자 데이터가 노출되는 오류가 발생했습니다. 오류는 신속하게 해결되었지만, 회사 측은 이 사고가 ChatGPT Plus 사용자의 1.2%에 영향을 미쳤다고 밝혔습니다. 유출된 정보에는 성명, 이메일 주소, 청구지 주소, 신용카드 번호 마지막 네 자리, 그리고 카드 만료일이 포함되었습니다.
3월 31일, 이탈리아의 데이터 보호 기관(Garante)은 OpenAI가 취약점을 공개한 후 개인정보 보호 문제를 이유로 ChatGPT에 대한 임시 금지 조치를 발표했습니다.
로펌 폭스 로스차일드 LLP의 데이터 보안 및 개인정보보호 공동 의장인 마크 맥크리어리는 CNN과의 인터뷰에서 ChatGPT를 둘러싼 보안 우려는 과장된 것이 아니라고 말했습니다. 그는 이 AI 챗봇을 "블랙박스"에 비유했습니다.
ChatGPT는 OpenAI가 2022년 11월에 출시한 기술로, 프롬프트를 생성하여 에세이, 스토리, 노래 가사를 작성할 수 있는 기능으로 빠르게 주목을 받았습니다. 구글과 마이크로소프트 같은 거대 기술 기업들도 방대한 온라인 데이터 저장소에서 학습된 대규모 언어 모델을 기반으로 하는 유사한 AI 도구를 출시했습니다.
이탈리아의 움직임에 따라 독일도 ChatGPT 금지를 고려하고 있습니다.
맥크리는 사용자가 이러한 도구에 정보를 입력하더라도 그 정보가 어떻게 사용될지 알 수 없다고 덧붙였습니다. 점점 더 많은 직원들이 업무용 이메일을 작성하거나 회의록을 작성하는 데 도구를 사용함에 따라 영업 비밀이 노출될 위험이 커지고 있어 기업들에게는 우려스러운 일입니다.
보스턴 컨설팅 그룹(BCG)의 AI 윤리 담당 이사인 스티브 밀스는 기업들이 직원들이 실수로 민감한 정보를 유출하는 것을 우려하고 있다고 말했습니다. 직원들이 입력한 데이터가 AI 도구를 훈련하는 데 사용된다면, 그들은 데이터에 대한 통제권을 다른 누군가에게 넘겨주는 셈입니다.
OpenAI의 개인정보 처리방침에 따라, 회사는 AI 모델 개선을 위해 서비스 사용자의 모든 개인정보 및 데이터를 수집할 수 있습니다. 회사는 이 정보를 사용하여 서비스 개선 또는 분석, 연구 수행, 사용자와의 소통, 새로운 프로그램 및 서비스 개발에 활용할 수 있습니다.
개인정보 보호정책에 따르면 OpenAI는 법률에 따라 요구되는 경우를 제외하고 사용자에게 통지하지 않고 제3자에게 개인 정보를 제공할 수 있습니다. OpenAI는 자체 서비스 약관을 가지고 있지만, AI 도구와 상호 작용할 때 적절한 조치를 취할 책임은 사용자에게 있습니다.
ChatGPT 소유주는 안전한 AI에 대한 접근 방식을 블로그에 게시했습니다. ChatGPT는 서비스 판매, 광고, 사용자 프로필 구축을 위해 데이터를 사용하는 것이 아니라, OpenAI가 모델을 더욱 유용하게 만들기 위해 데이터를 활용한다고 강조합니다. 예를 들어, 사용자 대화는 ChatGPT를 학습시키는 데 사용됩니다.
ChatGPT의 개인정보 보호정책은 매우 모호한 것으로 간주됩니다.
Bard AI를 개발한 Google은 AI 사용자를 위한 추가적인 개인정보 보호 조항을 마련했습니다. Google은 대화 내용의 일부를 선택하여 자동화된 도구를 사용하여 개인 식별 정보를 삭제합니다. 이를 통해 Bard를 개선하는 동시에 사용자 개인정보를 보호할 수 있습니다.
샘플 대화는 전문 트레이너가 검토하여 사용자의 Google 계정과는 별도로 최대 3년간 저장됩니다. Google은 또한 Bard AI에서 진행되는 대화에 자신이나 타인의 개인 정보를 포함하지 않도록 사용자에게 당부합니다. Google은 이러한 대화가 광고 목적으로 사용되지 않으며 향후 변경 사항을 공지할 것이라고 강조합니다.
Bard AI는 사용자가 Google 계정에 대화 내용을 저장하지 않도록 설정할 수 있을 뿐만 아니라, 링크를 통해 대화를 검토하거나 삭제할 수 있도록 합니다. 또한, Bard는 응답에 개인 정보가 포함되지 않도록 설계된 안전 장치를 갖추고 있습니다.
스티브 밀스는 사용자와 개발자가 새로운 기술에 숨겨진 보안 위험을 너무 늦게 발견하는 경우가 있다고 말합니다. 예를 들어, 자동 완성 기능이 사용자의 주민등록번호를 실수로 노출할 수 있습니다.
밀스 씨는 사용자들은 다른 사람과 공유하고 싶지 않은 내용은 이러한 도구에 넣지 말아야 한다고 말했습니다.
[광고_2]
소스 링크
댓글 (0)