Vietnam.vn - Nền tảng quảng bá Việt Nam

AI-företag ger användarna en deadline

Claude AI:s skapare introducerade nya villkor för dataanvändning, användarnas integritet och krävde en månads anmälningsperiod för att fortsätta använda chatboten.

ZNewsZNews29/08/2025

Anthropic har precis uppdaterat sin nya policy. Foto: GK Images .

Den 28 augusti tillkännagav AI-företaget Anthropic lanseringen av en uppdatering av sina användarvillkor och sekretesspolicy. Användare kan nu välja att tillåta att deras data används för att förbättra Claude och stärka skyddet mot missbruk som bedrägerier och bedrägerier.

Detta meddelande kommer att distribueras i chatboten från och med den 28 augusti. Användare har en månad på sig att acceptera eller avböja villkoren. De nya policyerna träder i kraft omedelbart efter godkännande. Efter den 28 september måste användare välja att fortsätta använda Claude.

Enligt företaget är uppdateringarna avsedda att bidra till att leverera kraftfullare och mer användbara AI-modeller. Att justera detta alternativ är enkelt och kan göras när som helst i sekretessinställningarna.

Dessa ändringar gäller för Claude Free-, Pro- och Max-planerna, vilka inkluderar Claude Code, Anthropics programmeringsverktyg. Tjänster som omfattas av de kommersiella villkoren gäller inte, inklusive Claude for Work, Claude Gov, Claude for Education eller användning av API:er, inklusive via tredje part som Amazon Bedrock och Google Clouds Vertex AI.

Genom att delta kommer användarna att bidra till att förbättra modellens säkerhet, öka dess förmåga att korrekt upptäcka skadligt innehåll och minska risken för att felaktigt flagga ofarliga konversationer, sa Anthropic i sitt blogginlägg. Framtida versioner av Claude kommer också att förbättras med färdigheter som programmering, analys och resonemang.

Det är viktigt att användarna har full kontroll över sina uppgifter, och huruvida de tillåter plattformen att använda dem, visas i ett popup-fönster. Nya konton kan valfritt ställa in detta under registreringsprocessen.

Chinh sach moi Anthropic anh 1

Popup-fönster för nya villkor i chatboten. Foto: Anthropic.

Datalagringsperioden har ökats till fem år, vilket gäller nya eller fortsatta konversationer eller kodningssessioner, samt svar på chatbotsvar. Raderad data kommer inte att användas för att träna modellen i framtiden. Om användare inte väljer att tillhandahålla data för utbildning fortsätter de med den nuvarande 30-dagars lagringspolicyn.

Anthropic förklarade policyn och sa att AI-utvecklingscykler vanligtvis tar år, och att hålla data konsekventa genom hela träningsprocessen hjälper också modellerna att förbli konsekventa. Längre datalagring förbättrar också klassificerare, system som används för att identifiera kränkande beteende, för att upptäcka skadliga mönster.

”För att skydda användarnas integritet använder vi en kombination av automatiserade verktyg och processer för att filtrera eller maskera känsliga uppgifter. Vi säljer inte användardata till tredje part”, skrev företaget.

Anthropic nämns ofta som en av ledarna inom säker AI. Anthropic har utvecklat en metod som kallas konstitutionell AI, som anger etiska principer och riktlinjer som modeller måste följa. Anthropic är också ett av de företag som har undertecknat Safe AI Commitments med USA:s, Storbritanniens och G7:s regeringar .

Källa: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


Kommentar (0)

Lämna en kommentar för att dela dina känslor!

Arv

Figur

Företag

Notre Dame-katedralen i Ho Chi Minh-staden är starkt upplyst för att välkomna julen 2025

Aktuella händelser

Politiskt system

Lokal

Produkt

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC