A Anthropic acaba de atualizar sua nova política. Foto: GK Images . |
Em 28 de agosto, a empresa de IA Anthropic anunciou uma atualização em seus Termos de Serviço e Política de Privacidade. Os usuários agora podem optar por ter seus dados usados para aprimorar o Claude e fortalecer as proteções contra abusos como golpes e fraudes.
Este aviso será implementado no chatbot a partir de 28 de agosto. Os usuários têm um mês para aceitar ou recusar os termos. As novas políticas entrarão em vigor imediatamente após a aceitação. Após 28 de setembro, os usuários precisarão optar por continuar usando o Claude.
As atualizações visam ajudar a fornecer modelos de IA mais poderosos e úteis, de acordo com a empresa. Ajustar esta opção é simples e pode ser feito a qualquer momento nas Configurações de Privacidade.
Essas alterações estão sendo aplicadas aos planos Claude Free, Pro e Max, que incluem o Claude Code, a ferramenta de programação da Anthropic. Os serviços cobertos pelos Termos Comerciais não serão aplicados, incluindo o Claude for Work, o Claude Gov, o Claude for Education ou o uso de APIs, inclusive por meio de terceiros, como a Amazon Bedrock e a Vertex AI do Google Cloud.
Ao participar, a Anthropic afirmou em sua publicação no blog, os usuários ajudarão a melhorar a segurança do modelo, aumentando sua capacidade de detectar com precisão conteúdo nocivo e reduzindo o risco de sinalizar erroneamente conversas inofensivas. Versões futuras do Claude também serão aprimoradas com habilidades como programação, análise e raciocínio.
É importante que os usuários tenham controle total sobre seus dados e se permitem ou não que a plataforma os utilize em uma janela pop-up. Novas contas podem, opcionalmente, configurar isso durante o processo de registro.
![]() |
Nova janela pop-up de termos no chatbot. Foto: Anthropic. |
O período de retenção de dados foi aumentado para cinco anos, aplicando-se a conversas ou sessões de programação novas ou continuadas, bem como às respostas às respostas do chatbot. Os dados excluídos não serão usados para treinar o modelo no futuro. Se os usuários não optarem por fornecer dados para treinamento, continuarão com a política de retenção atual de 30 dias.
Ao explicar a política, a Anthropic afirmou que os ciclos de desenvolvimento de IA normalmente duram anos, e manter os dados consistentes durante todo o processo de treinamento também ajuda a manter os modelos consistentes. A retenção de dados por mais tempo também aprimora os classificadores, sistemas usados para identificar comportamentos abusivos e detectar padrões prejudiciais.
“Para proteger a privacidade do usuário, usamos uma combinação de ferramentas e processos automatizados para filtrar ou mascarar dados confidenciais. Não vendemos dados do usuário a terceiros”, escreveu a empresa.
A Anthropic é frequentemente citada como uma das líderes em IA segura. Ela desenvolveu uma metodologia chamada IA Constitucional, que estabelece princípios e diretrizes éticas que os modelos devem seguir. A Anthropic também é uma das empresas que assinou os Compromissos de IA Segura com os governos dos EUA, Reino Unido e G7.
Fonte: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html
Comentário (0)