Anthropic이 새로운 정책을 업데이트했습니다. 사진: GK Images . |
8월 28일, AI 회사 Anthropic은 사용자 서비스 약관 및 개인정보 처리방침을 업데이트했다고 발표했습니다. 이제 사용자는 Claude를 개선하고 사기 및 사기와 같은 악용으로부터 사용자 보호를 강화하기 위해 자신의 데이터가 사용되는 것을 허용할 수 있습니다.
이 공지는 8월 28일부터 챗봇에 적용됩니다. 사용자는 한 달 동안 약관에 동의하거나 거부할 수 있습니다. 새로운 정책은 동의 즉시 적용됩니다. 9월 28일 이후에는 Claude를 계속 사용하려면 동의해야 합니다.
회사 측에 따르면, 이번 업데이트는 더욱 강력하고 유용한 AI 모델을 제공하기 위한 것입니다. 이 옵션은 개인정보 보호 설정에서 언제든지 간편하게 조정할 수 있습니다.
이러한 변경 사항은 Anthropic의 프로그래밍 도구인 Claude Code를 포함하는 Claude Free, Pro 및 Max 플랜에 적용됩니다. Claude for Work, Claude Gov, Claude for Education 등 상업 약관이 적용되는 서비스나 Amazon Bedrock 및 Google Cloud의 Vertex AI와 같은 제3자를 통한 API 사용은 적용되지 않습니다.
Anthropic은 블로그 게시물을 통해 사용자들이 참여함으로써 모델의 안전성을 향상시키고, 유해 콘텐츠를 정확하게 감지하는 능력을 향상시키며, 무해한 대화를 실수로 표시하는 위험을 줄일 수 있다고 밝혔습니다. Claude의 향후 버전은 프로그래밍, 분석, 추론 등의 기술도 강화될 예정입니다.
사용자가 자신의 데이터를 완전히 제어할 수 있어야 하며, 플랫폼이 팝업 창을 통해 데이터를 사용하는 것을 허용할지 여부를 결정하는 것이 중요합니다. 신규 계정은 등록 과정에서 선택적으로 이를 설정할 수 있습니다.
![]() |
챗봇에 새로운 약관 팝업창이 나타납니다. 사진: Anthropic. |
데이터 보존 기간이 5년으로 연장되었으며, 이는 신규 또는 기존 대화, 코딩 세션, 그리고 챗봇 응답에 대한 응답에도 적용됩니다. 삭제된 데이터는 향후 모델 학습에 사용되지 않습니다. 사용자가 학습용 데이터 제공에 동의하지 않으면 현재의 30일 보존 정책이 적용됩니다.
앤트로픽은 이 정책을 설명하며, AI 개발 주기는 일반적으로 수년에 걸쳐 진행되며, 학습 과정 전반에 걸쳐 데이터를 일관되게 유지하는 것이 모델의 일관성 유지에도 도움이 된다고 밝혔습니다. 또한, 데이터 보존 기간이 길어질수록 악의적인 행동을 식별하는 데 사용되는 분류기(classifier)의 유해 패턴 탐지 능력도 향상됩니다.
"사용자 개인 정보 보호를 위해 당사는 자동화된 도구와 프로세스를 결합하여 민감한 데이터를 필터링하거나 가립니다. 당사는 사용자 데이터를 제3자에게 판매하지 않습니다."라고 회사 측은 밝혔습니다.
Anthropic은 안전한 AI 분야의 선두주자로 자주 거론됩니다. Anthropic은 모델이 따라야 할 윤리적 원칙과 지침을 제시하는 Constitutional AI라는 방법론을 개발했습니다. 또한 Anthropic은 미국, 영국, 그리고 G7 정부 와 안전한 AI 약속(Safe AI Commitments)에 서명한 기업 중 하나입니다.
출처: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html
댓글 (0)