Vietnam.vn - Nền tảng quảng bá Việt Nam

AI-selskap gir brukerne en frist

Skaperen av Claude AI introduserte nye vilkår for databruk, brukernes personvern og krevde en måneds påmeldingsperiode for å fortsette å bruke chatboten.

ZNewsZNews29/08/2025

Anthropic har nettopp oppdatert sin nye policy. Foto: GK Images .

28. august annonserte AI-selskapet Anthropic lanseringen av en oppdatering av brukervilkårene og personvernerklæringen. Brukere kan nå velge å tillate at dataene deres brukes til å forbedre Claude og styrke beskyttelsen mot misbruk som svindel og bedrageri.

Denne meldingen vil bli publisert i chatboten fra 28. august. Brukere har én måned på seg til å godta eller avslå vilkårene. De nye retningslinjene trer i kraft umiddelbart etter godkjenning. Etter 28. september må brukere velge å fortsette å bruke Claude.

Ifølge selskapet er oppdateringene ment å bidra til å levere kraftigere og mer nyttige AI-modeller. Justering av dette alternativet er enkelt og kan gjøres når som helst i personverninnstillingene.

Disse endringene gjelder for Claude Free-, Pro- og Max-abonnementene, som inkluderer Claude Code, Anthropics programmeringsverktøy. Tjenester som dekkes av de kommersielle vilkårene gjelder ikke, inkludert Claude for Work, Claude Gov, Claude for Education eller bruk av API-er, inkludert gjennom tredjeparter som Amazon Bedrock og Google Clouds Vertex AI.

Ved å delta vil brukerne bidra til å forbedre modellens sikkerhet, øke dens evne til å nøyaktig oppdage skadelig innhold og redusere risikoen for feilaktig flagging av harmløse samtaler, sa Anthropic i blogginnlegget sitt. Fremtidige versjoner av Claude vil også bli forbedret med ferdigheter som programmering, analyse og resonnering.

Det er viktig at brukerne har full kontroll over dataene sine, og om de tillater plattformen å bruke dem i et popup-vindu. Nye kontoer kan eventuelt sette opp dette under registreringsprosessen.

Chinh sach moi Anthropic anh 1

Nye vilkår-popup-vindu i chatboten. Foto: Anthropic.

Datalagringsperioden er økt til fem år, noe som gjelder for nye eller fortsatte samtaler eller kodeøkter, samt svar på chatbot-svar. Slettede data vil ikke bli brukt til å trene modellen i fremtiden. Hvis brukere ikke velger å gi data til opplæring, vil de fortsette med gjeldende 30-dagers oppbevaringspolicy.

Anthropic forklarte retningslinjene og sa at AI-utviklingssykluser vanligvis tar år, og det å holde data konsistente gjennom hele treningsprosessen hjelper også modellene med å holde seg konsistente. Lengre datalagring forbedrer også klassifikatorer, systemer som brukes til å identifisere krenkende atferd, for å oppdage skadelige mønstre.

«For å beskytte brukernes personvern bruker vi en kombinasjon av automatiserte verktøy og prosesser for å filtrere eller maskere sensitive data. Vi selger ikke brukerdata til tredjeparter», skrev selskapet.

Anthropic blir ofte sitert som en av lederne innen sikker AI. Anthropic har utviklet en tilnærming kalt konstitusjonell AI, som beskriver etiske prinsipper og retningslinjer som modeller må følge. Anthropic er også et av selskapene som har signert Safe AI Commitments med regjeringene i USA, Storbritannia og G7.

Kilde: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

Arv

Figur

Forretninger

Bank på døren til eventyrlandet Thai Nguyen

Aktuelle hendelser

Det politiske systemet

Lokalt

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC