Vietnam.vn - Nền tảng quảng bá Việt Nam

AI-selskap setter frist for brukere.

Claude AI, skaperen av Claude AI, har gitt ut nye vilkår og betingelser angående databruk og brukernes personvern, som krever at brukerne tar en avgjørelse én måned i forveien om de vil fortsette å bruke chatboten.

ZNewsZNews29/08/2025

Anthropic har nettopp oppdatert retningslinjene sine. Foto: GK Images .

28. august annonserte AI-selskapet Anthropic lanseringen av oppdaterte tjenestevilkår for brukere og personvernregler. Brukere kan nå velge å tillate at dataene deres brukes til å forbedre Claude og styrke beskyttelsen mot misbruk som phishing og svindel.

Denne varslingen vil bli rullet ut i chatboten fra 28. august. Brukere har én måned på seg til å godta eller avvise vilkårene. De nye retningslinjene trer i kraft umiddelbart etter godkjenning. Etter 28. september må brukerne velge å fortsette å bruke Claude.

Ifølge selskapet har oppdateringene som mål å levere mer nyttige og kraftige AI-modeller. Justering av dette alternativet er enkelt og kan gjøres når som helst i personverninnstillingene.

Disse endringene gjelder for Claude Free-, Pro- og Max-abonnementene, som inkluderer Claude Code, Anthropics programmeringsverktøy. Tjenester som dekkes av handelsvilkårene, inkludert Claude for Work, Claude Gov, Claude for Education eller bruk av API-er, inkludert gjennom tredjeparter som Amazon Bedrock og Google Clouds Vertex AI, vil ikke bli inkludert.

I blogginnlegget sitt uttalte Anthropic at brukerne ved å delta vil bidra til å forbedre modellens sikkerhet, øke dens evne til å nøyaktig oppdage skadelig innhold og redusere risikoen for feilaktig flagging av harmløse samtaler. Fremtidige versjoner av Claude vil også ha forbedrede ferdigheter som programmering, analyse og resonnement.

Det er viktig at brukerne har full kontroll over dataene sine, og kan velge om de vil tillate plattformen å bruke dem i et synlig vindu. Nye kontoer kan eventuelt sette opp dette under registreringsprosessen.

Chinh sach moi Anthropic anh 1

Vinduet som viser de nye vilkårene og betingelsene i chatboten. Bilde: Anthropic.

Datalagringsperioden er økt til 5 år, og gjelder for nye samtaler eller kodeøkter, samt svar på chatbot-svar. Slettede data vil ikke bli brukt til fremtidig modelltrening. Hvis brukere ikke samtykker i å oppgi data til opplæring, vil de fortsette med gjeldende 30-dagers oppbevaringspolicy.

Anthropic forklarer sin policy ved å hevde at AI-utviklingssykluser vanligvis varer i mange år, og at det å opprettholde datakonsistens gjennom hele treningsprosessen bidrar til å skape mer konsistente modeller. Lengre datalagring forbedrer også klassifikatorer og systemer som brukes til å identifisere krenkende atferd, noe som muliggjør deteksjon av skadelige atferdsmønstre.

«For å beskytte brukernes personvern bruker vi en kombinasjon av automatiserte verktøy og prosesser for å filtrere eller skjule sensitive data. Vi selger ikke brukerdata til tredjeparter», skrev selskapet.

Anthropic blir ofte sitert som et av de ledende selskapene innen sikker AI. Anthropic utvikler en metodikk kalt konstitusjonell AI, som fastsetter etiske prinsipper og retningslinjer som modellen må følge. Anthropic er også et av selskapene som deltar i forpliktelser til sikker AI med myndighetene i USA, Storbritannia og G7.

Kilde: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


Kommentar (0)

Legg igjen en kommentar for å dele følelsene dine!

I samme kategori

Av samme forfatter

Arv

Figur

Bedrifter

Aktuelle saker

Det politiske systemet

Lokalt

Produkt

Happy Vietnam
Kulturell flyt

Kulturell flyt

Den nye sesongen har begynt.

Den nye sesongen har begynt.

VÅRENS FØRSTE SKRIVING

VÅRENS FØRSTE SKRIVING