Vietnam.vn - Nền tảng quảng bá Việt Nam

Firma zajmująca się sztuczną inteligencją ustala terminy dla użytkowników.

Claude AI, twórca Claude AI, opublikował nowe warunki dotyczące wykorzystania danych i prywatności użytkowników, wymagając od nich podjęcia decyzji z miesięcznym wyprzedzeniem, czy chcą nadal korzystać z chatbota.

ZNewsZNews29/08/2025

Anthropic właśnie zaktualizował swoją politykę. Zdjęcie: GK Images .

28 sierpnia firma Anthropic, zajmująca się sztuczną inteligencją, ogłosiła publikację zaktualizowanych Warunków korzystania z usługi dla użytkowników oraz Polityki prywatności. Użytkownicy mogą teraz zezwolić na wykorzystywanie swoich danych do ulepszania aplikacji Claude i zwiększenia ochrony przed nadużyciami, takimi jak phishing i oszustwa.

To powiadomienie zostanie udostępnione w chatbocie od 28 sierpnia. Użytkownicy mają miesiąc na zaakceptowanie lub odrzucenie regulaminu. Nowe zasady zaczną obowiązywać natychmiast po ich zaakceptowaniu. Po 28 września użytkownicy będą musieli podjąć decyzję o kontynuowaniu korzystania z Claude.

Według firmy, aktualizacje mają na celu dostarczenie bardziej użytecznych i wydajnych modeli sztucznej inteligencji. Dostosowanie tej opcji jest proste i można to zrobić w dowolnym momencie w Ustawieniach prywatności.

Zmiany te dotyczą planów Claude Free, Pro i Max, które obejmują Claude Code, narzędzie programistyczne firmy Anthropic. Usługi objęte Warunkami Handlowymi nie będą objęte, w tym Claude for Work, Claude Gov, Claude for Education, ani korzystanie z interfejsów API, w tym za pośrednictwem stron trzecich, takich jak Amazon Bedrock i Vertex AI firmy Google Cloud.

W swoim wpisie na blogu firma Anthropic poinformowała, że ​​dzięki udziałowi użytkownicy przyczynią się do poprawy bezpieczeństwa modelu, zwiększą jego zdolność do precyzyjnego wykrywania szkodliwych treści i zmniejszą ryzyko omyłkowego oznaczania nieszkodliwych konwersacji. Przyszłe wersje Claude'a będą również posiadały ulepszone umiejętności, takie jak programowanie, analiza i rozumowanie.

Ważne jest, aby użytkownicy mieli pełną kontrolę nad swoimi danymi i mogli zdecydować, czy zezwolić platformie na ich używanie w widocznym oknie. Nowe konta mogą opcjonalnie skonfigurować tę opcję podczas rejestracji.

Chinh sach moi Anthropic anh 1

Okno wyświetlające nowe Warunki korzystania z serwisu w chatbocie. Zdjęcie: Anthropic.

Okres przechowywania danych został wydłużony do 5 lat i dotyczy nowych rozmów lub sesji kodowania, a także odpowiedzi na pytania chatbota. Usunięte dane nie będą wykorzystywane do przyszłego szkolenia modelu. Jeśli użytkownicy nie wyrażą zgody na udostępnienie danych do szkolenia, będą nadal podlegać obecnej 30-dniowej polityce przechowywania danych.

Wyjaśniając swoją politykę, Anthropic argumentuje, że cykle rozwoju sztucznej inteligencji trwają zazwyczaj wiele lat, a utrzymanie spójności danych w całym procesie szkolenia pomaga tworzyć bardziej spójne modele. Dłuższe przechowywanie danych usprawnia również klasyfikatory i systemy wykorzystywane do identyfikacji zachowań agresywnych, umożliwiając wykrywanie szkodliwych wzorców zachowań.

„Aby chronić prywatność użytkowników, korzystamy z kombinacji zautomatyzowanych narzędzi i procesów filtrowania lub ukrywania poufnych danych. Nie sprzedajemy danych użytkowników stronom trzecim” – napisała firma.

Firma Anthropic jest często uznawana za jedną z wiodących firm w dziedzinie bezpiecznej sztucznej inteligencji. Anthropic opracowuje metodologię zwaną Constitutional AI, która określa zasady etyczne i wytyczne, których musi przestrzegać model. Anthropic jest również jedną z firm uczestniczących w programach dotyczących bezpiecznej sztucznej inteligencji z rządami USA, Wielkiej Brytanii i G7.

Źródło: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html


Komentarz (0)

Zostaw komentarz, aby podzielić się swoimi odczuciami!

W tej samej kategorii

Od tego samego autora

Dziedzictwo

Postać

Firmy

Sprawy bieżące

System polityczny

Lokalny

Produkt

Happy Vietnam
Mieć wysokie aspiracje

Mieć wysokie aspiracje

Gotowy do walki z ogniem

Gotowy do walki z ogniem

A80

A80