블룸버그 에 따르면 삼성은 5월 1일에 이러한 결정을 직원들에게 알렸다. 회사는 구글 검색, 빙과 같은 AI 플랫폼에 업로드된 데이터가 외부 서버에 저장되어 검색 및 삭제가 어렵고 결국 다른 사용자에게 공개될 수 있다는 점을 우려하고 있다.
지난달, 한국 전자 대기업은 자사 내 AI 도구 사용에 대한 설문조사를 실시했습니다. 응답자의 65%는 이러한 서비스가 위험을 초래한다고 생각했습니다. 4월 초, 삼성 엔지니어들은 ChatGPT에 내부 소스 코드를 게시하다가 실수로 유출되었습니다. 해당 정보에 어떤 내용이 담겨 있었는지는 불분명합니다.
삼성 관계자는 생성적 AI 서비스 이용 금지에 대한 정보를 확인했습니다.
삼성은 직원들에게 보낸 메모에서 ChatGPT와 같은 생성형 AI 플랫폼이 점점 더 인기를 얻고 있음을 인정했습니다. 편리하고 효과적이지만, 보안 문제도 제기됩니다.
삼성은 이 기술에 대한 우려를 표명한 가장 최근의 대기업입니다. OpenAI의 ChatGPT 챗봇이 전 세계를 강타한 지 불과 몇 달 후인 2월, JP모건 체이스, 뱅크오브아메리카, 시티그룹을 포함한 여러 월가 은행들이 ChatGPT 사용을 금지하거나 제한했습니다. 이탈리아 역시 보안 우려를 이유로 ChatGPT를 금지했지만, 최근 이를 철회했습니다.
삼성의 정책은 회사에서 지급한 컴퓨터, 태블릿, 휴대폰 및 내부 네트워크에서 생성적 AI 서비스를 사용하는 것을 금지합니다. 스마트폰이나 노트북처럼 고객에게 판매되는 기기에는 적용되지 않습니다.
삼성은 직원들이 개인 기기에서 ChatGPT 및 기타 도구를 사용하는 경우, 지적 재산권이 노출될 수 있는 회사 관련 정보나 개인 데이터를 전송하지 않도록 요구합니다. 위반 시 해고 조치가 취해질 수 있다고 회사는 경고합니다.
한편, 삼성은 문서 번역 및 요약, 소프트웨어 개발을 위한 자체 AI 도구도 개발하고 있습니다. 삼성은 직원들이 민감한 정보를 외부 서비스에 업로드하는 것을 방지하고자 합니다. 지난달 ChatGPT는 사용자 데이터가 AI 모델 학습에 사용되는 것을 방지할 수 있는 시크릿 모드를 추가했습니다.
(블룸버그에 따르면)
[광고_2]
원천
댓글 (0)