Vietnam.vn - Nền tảng quảng bá Việt Nam

AI-företag sätter deadline för användare.

Claude AI, skaparen av Claude AI, har släppt nya villkor gällande dataanvändning och användarnas integritet, vilket kräver att användare fattar ett beslut en månad i förväg om de vill fortsätta använda chatboten.

ZNewsZNews29/08/2025

Anthropic har precis uppdaterat sin policy. Foto: GK Images .

Den 28 augusti tillkännagav AI-företaget Anthropic lanseringen av uppdaterade användarvillkor och sekretesspolicy. Användare kan nu välja att tillåta att deras data används för att förbättra Claude och stärka skyddet mot missbruk som nätfiske och bedrägerier.

Denna avisering kommer att lanseras i chatboten från och med den 28 augusti. Användare har en månad på sig att acceptera eller avvisa villkoren. De nya policyerna träder i kraft omedelbart efter godkännande. Efter den 28 september måste användare välja att fortsätta använda Claude.

Enligt företaget syftar uppdateringarna till att leverera mer användbara och kraftfulla AI-modeller. Att justera detta alternativ är enkelt och kan göras när som helst i sekretessinställningarna.

Dessa ändringar gäller Claude Free-, Pro- och Max-abonnemangen, vilka inkluderar Claude Code, Anthropics programmeringsverktyg. Tjänster som omfattas av handelsvillkoren kommer inte att inkluderas, inklusive Claude for Work, Claude Gov, Claude for Education eller användning av API:er, inklusive via tredje part som Amazon Bedrock och Google Clouds Vertex AI.

I sitt blogginlägg uppgav Anthropic att genom att delta kommer användarna att bidra till att förbättra modellens säkerhet, öka dess förmåga att korrekt upptäcka skadligt innehåll och minska risken för att felaktigt flagga ofarliga konversationer. Framtida versioner av Claude kommer också att ha förbättrade färdigheter som programmering, analys och resonemang.

Det är viktigt att användarna har full kontroll över sina uppgifter och kan välja om de vill tillåta plattformen att använda dem i ett synligt fönster. Nya konton kan valfritt konfigurera detta under registreringsprocessen.

Chinh sach moi Anthropic anh 1

Fönstret som visar de nya villkoren i chatboten. Bild: Anthropic.

Datalagring har ökats till 5 år, tillämpligt på nya konversationer eller kodningssessioner, samt svar på chatbotsvar. Raderad data kommer inte att användas för framtida modellutbildning. Om användare inte samtycker till att tillhandahålla data för utbildning fortsätter de med den nuvarande 30-dagars lagringspolicyn.

Anthropic förklarar sin policy och menar att AI-utvecklingscykler vanligtvis varar i många år, och att upprätthållandet av datakonsistens genom hela träningsprocessen bidrar till att skapa mer konsekventa modeller. Längre datalagring förbättrar också klassificerare och system som används för att identifiera kränkande beteenden, vilket möjliggör upptäckt av skadliga beteendemönster.

"För att skydda användarnas integritet använder vi en kombination av automatiserade verktyg och processer för att filtrera eller dölja känsliga uppgifter. Vi säljer inte användardata till tredje part", skrev företaget.

Anthropic nämns ofta som ett av de ledande företagen inom säker AI. Anthropic utvecklar en metod som kallas konstitutionell AI, vilken anger etiska principer och riktlinjer som modellen måste följa. Anthropic är också ett av de företag som deltar i säker AI-åtaganden med regeringarna i USA, Storbritannien och G7.

Källa: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


Kommentar (0)

Lämna en kommentar för att dela dina känslor!

Arv

Figur

Företag

Aktuella frågor

Politiskt system

Lokal

Produkt

Happy Vietnam
Slå ett slag

Slå ett slag

Museum

Museum

Solnedgång på en lugn strand

Solnedgång på en lugn strand