The Telegraph 에 따르면, ChatGPT와의 비공개 채팅 500건 이상이 Google 검색 결과에 나타나 개인정보 보호 및 데이터 보안에 대한 우려가 제기되었습니다.
이러한 채팅에는 내부 논의, 사기 행위, 사이버 공격 계획, 심지어 의사와 변호사의 질문까지 민감한 내용이 포함되어 있었습니다.
이 사건은 온라인 연구가 헨크 반 에스(Henk van Ess)에 의해 발견되었는데, 그는 인터넷 아카이브의 웹 보관 도구인 웨이백 머신(Wayback Machine)에 최대 11만 건의 대화가 아직 저장되어 있을 수 있다고 말했습니다.
이러한 채팅은 원래 공개 URL 링크로 "채팅 공유" 기능을 통해 공유됩니다.
그러나 ChatGPT를 개발한 회사인 OpenAI는 이러한 링크가 Google 및 기타 검색 엔진에 색인되도록 허용했고, 이로 인해 사용자는 자신도 모르게 개인 정보를 공유하게 되었습니다.
OpenAI는 Google에서 스크래핑한 콘텐츠를 제거하기 위해 노력하고 있습니다.
이번 주에 OpenAI는 공유 콘텐츠 색인 기능을 비활성화했으며, Google에서 이미 크롤링한 콘텐츠를 삭제하기 위해 노력하고 있습니다.
OpenAI의 최고정보보안책임자(CISO)인 데인 스터키는 "이 공유 기능은 사용자가 실수로 비공개 콘텐츠를 공개할 위험이 너무 큽니다."라고 인정하며, "이 옵션을 완전히 삭제합니다."라고 덧붙였습니다.
유출된 채팅 중에는 학생들이 ChatGPT를 악용해 시험지에서 부정행위를 하는 모습이 담겨 있고, 개인 신원이나 민감한 문서가 노출된 채팅도 있습니다.
OpenAI의 CEO인 샘 알트먼 역시 많은 사람들이 챗봇을 "신뢰할 수 있는 친구"로 사용하고 있음에도 불구하고 ChatGPT에는 변호사, 의사 또는 컨설턴트와 동일한 보안 메커니즘이 없다고 인정했습니다.
Cybernews 에 따르면, 일부 Reddit 사용자는 전체 이름, 전화번호, 이메일, 주소, 자세한 업무 이력이 포함된 채팅을 보았다고 공유했습니다.
한 Reddit 사용자는 "누군가 이름, 전화번호, 이메일, 위치, 근무 이력 등을 모두 적은 이력서를 작성하는 것을 봤습니다."라고 글을 남겼습니다.
또한 사적인 생각, 개인적인 이야기, 아이들의 이름, 사진, 집 주소, 심지어 이용자의 음성까지 담긴 일련의 대화가 유출되어 많은 사람들에게 충격을 안겨주었습니다.
출처: https://nld.com.vn/phat-hien-gay-soc-tren-chatgpt-khien-nguoi-dung-choang-vang-196250804134031378.htm
댓글 (0)