삼성전자는 ChatGPT, Bing 등의 플랫폼에 업로드된 데이터가 외부 서버에 저장되어 삭제가 어렵고, 다른 사용자에게 공개될 가능성이 있다는 우려 때문에 이런 결정을 내렸습니다.
삼성전자, ChatGPT 데이터 유출 사건 이후 직원들의 AI 사용 금지. 일러스트 사진.
2023년 4월, 삼성은 내부 AI 도구 사용에 대한 설문조사를 실시했는데, 응답자의 60% 이상이 이러한 서비스가 위험을 초래한다고 답했습니다. 지난달 초, 삼성 엔지니어들은 ChatGPT에 내부 소스 코드를 업로드하는 과정에서 실수로 소스 코드를 유출했지만, 어떤 정보가 포함되어 있었는지는 아직 밝혀지지 않았습니다.
삼성 관계자는 지난주에 일반 AI 서비스 사용을 금지하는 메모가 발송됐다고 확인했습니다.
세계 최대 메모리 칩 및 스마트폰 제조업체 중 하나인 삼성전자는 직원들의 업무용 기기에서 생성 AI 도구를 사용하는 것을 금지하는 기업들의 목록에 최근 합류했습니다. 최근 몇 달 동안 골드만삭스를 비롯한 여러 주요 금융 회사들이 직원들의 유사 플랫폼 사용을 금지하거나 제한하기로 결정했습니다.
JP모건 체이스, 뱅크 오브 아메리카, 시티그룹 등 월가의 여러 은행은 2월에 해당 서비스 이용을 금지하거나 제한했습니다. 이탈리아 역시 개인정보 보호 우려로 ChatGPT를 금지했지만, 최근 입장을 바꿨습니다.
삼성은 개인 기기에서 ChatGPT 및 기타 도구를 사용하는 직원들에게 지적 재산권이 노출될 수 있는 회사 관련 정보나 개인 데이터를 전송하지 말라고 경고했습니다. 위반자는 해고될 것입니다.
삼성은 문서 번역 및 요약을 위한 자체 AI 도구와 소프트웨어 개발을 진행하는 것 외에도, 민감한 기업 정보가 외부 서비스에 업로드되는 것을 차단하는 방안을 검토하고 있습니다. 지난달 ChatGPT는 사용자가 자신의 채팅 내용이 AI 모델 학습에 사용되는 것을 차단할 수 있는 "시크릿 모드"를 추가했습니다.
[광고_2]
원천
댓글 (0)