Společnost Anthropic právě aktualizovala své zásady. Foto: GK Images . |
Společnost Anthropic, která se zabývá umělou inteligencí, oznámila 28. srpna vydání aktualizovaných Podmínek služby pro uživatele a Zásad ochrany osobních údajů. Uživatelé si nyní mohou zvolit, zda povolit použití svých dat ke zlepšení služby Claude a posílení ochrany před zneužitím, jako je phishing a podvody.
Toto oznámení bude v chatbotu spuštěno od 28. srpna. Uživatelé mají jeden měsíc na to, aby podmínky přijali nebo odmítli. Nové zásady vstoupí v platnost okamžitě po jejich přijetí. Po 28. září se uživatelé budou muset rozhodnout, zda chtějí Claude nadále používat.
Podle společnosti mají aktualizace za cíl poskytnout užitečnější a výkonnější modely umělé inteligence. Úprava této možnosti je jednoduchá a lze ji kdykoli provést v Nastavení soukromí.
Tyto změny se vztahují na tarify Claude Free, Pro a Max, které zahrnují Claude Code, programovací nástroj od společnosti Anthropic. Služby, na které se vztahují obchodní podmínky, nebudou zahrnuty, včetně Claude for Work, Claude Gov, Claude for Education ani používání API, a to i prostřednictvím třetích stran, jako jsou Amazon Bedrock a Vertex AI od společnosti Google Cloud.
Ve svém blogovém příspěvku společnost Anthropic uvedla, že účastí uživatelé pomohou zlepšit bezpečnost modelu, zvýšit jeho schopnost přesně detekovat škodlivý obsah a snížit riziko chybného označení neškodných konverzací. Budoucí verze Claude budou mít také vylepšené dovednosti, jako je programování, analýza a uvažování.
Je důležité, aby uživatelé měli plnou kontrolu nad svými daty a mohli si ve viditelném okně zvolit, zda platformě povolí jejich používání. Nové účty si tuto možnost mohou volitelně nastavit během registračního procesu.
![]() |
Okno zobrazující nové Obchodní podmínky v chatbotu. Obrázek: Anthropic. |
Doba uchovávání dat byla prodloužena na 5 let a vztahuje se na nové konverzace nebo relace kódování, stejně jako na odpovědi chatbotů. Smazaná data nebudou použita pro budoucí modelové školení. Pokud uživatelé nesouhlasí s poskytnutím dat pro školení, budou pokračovat v aktuální 30denní lhůtě uchovávání.
Společnost Anthropic ve své politice argumentuje tím, že vývojové cykly umělé inteligence obvykle trvají mnoho let a udržování konzistence dat v průběhu celého tréninkového procesu pomáhá vytvářet konzistentnější modely. Delší uchovávání dat také zlepšuje klasifikátory a systémy používané k identifikaci zneužívajícího chování, což umožňuje detekci škodlivých vzorců chování.
„Abychom ochránili soukromí uživatelů, používáme kombinaci automatizovaných nástrojů a procesů k filtrování nebo skrytí citlivých údajů. Uživatelská data neprodáváme třetím stranám,“ napsala společnost.
Společnost Anthropic je často uváděna jako jedna z předních společností v oblasti bezpečné umělé inteligence. Anthropic vyvíjí metodologii nazvanou Ústavní umělá inteligence, která stanoví etické principy a směrnice, jimiž se musí model řídit. Anthropic je také jednou ze společností, které se podílejí na závazcích v oblasti bezpečné umělé inteligence s vládami USA, Velké Británie a G7.
Zdroj: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Komentář (0)