Anthropic właśnie zaktualizował swoją politykę. Zdjęcie: GK Images . |
28 sierpnia firma Anthropic, zajmująca się sztuczną inteligencją, ogłosiła publikację zaktualizowanych Warunków korzystania z usługi dla użytkowników oraz Polityki prywatności. Użytkownicy mogą teraz zezwolić na wykorzystywanie swoich danych do ulepszania aplikacji Claude i zwiększenia ochrony przed nadużyciami, takimi jak phishing i oszustwa.
To powiadomienie zostanie udostępnione w chatbocie od 28 sierpnia. Użytkownicy mają miesiąc na zaakceptowanie lub odrzucenie regulaminu. Nowe zasady zaczną obowiązywać natychmiast po ich zaakceptowaniu. Po 28 września użytkownicy będą musieli podjąć decyzję o kontynuowaniu korzystania z Claude.
Według firmy, aktualizacje mają na celu dostarczenie bardziej użytecznych i wydajnych modeli sztucznej inteligencji. Dostosowanie tej opcji jest proste i można to zrobić w dowolnym momencie w Ustawieniach prywatności.
Zmiany te dotyczą planów Claude Free, Pro i Max, które obejmują Claude Code, narzędzie programistyczne firmy Anthropic. Usługi objęte Warunkami Handlowymi nie będą objęte, w tym Claude for Work, Claude Gov, Claude for Education, ani korzystanie z interfejsów API, w tym za pośrednictwem stron trzecich, takich jak Amazon Bedrock i Vertex AI firmy Google Cloud.
W swoim wpisie na blogu firma Anthropic poinformowała, że dzięki udziałowi użytkownicy przyczynią się do poprawy bezpieczeństwa modelu, zwiększą jego zdolność do precyzyjnego wykrywania szkodliwych treści i zmniejszą ryzyko omyłkowego oznaczania nieszkodliwych konwersacji. Przyszłe wersje Claude'a będą również posiadały ulepszone umiejętności, takie jak programowanie, analiza i rozumowanie.
Ważne jest, aby użytkownicy mieli pełną kontrolę nad swoimi danymi i mogli zdecydować, czy zezwolić platformie na ich używanie w widocznym oknie. Nowe konta mogą opcjonalnie skonfigurować tę opcję podczas rejestracji.
![]() |
Okno wyświetlające nowe Warunki korzystania z serwisu w chatbocie. Zdjęcie: Anthropic. |
Okres przechowywania danych został wydłużony do 5 lat i dotyczy nowych rozmów lub sesji kodowania, a także odpowiedzi na pytania chatbota. Usunięte dane nie będą wykorzystywane do przyszłego szkolenia modelu. Jeśli użytkownicy nie wyrażą zgody na udostępnienie danych do szkolenia, będą nadal podlegać obecnej 30-dniowej polityce przechowywania danych.
Wyjaśniając swoją politykę, Anthropic argumentuje, że cykle rozwoju sztucznej inteligencji trwają zazwyczaj wiele lat, a utrzymanie spójności danych w całym procesie szkolenia pomaga tworzyć bardziej spójne modele. Dłuższe przechowywanie danych usprawnia również klasyfikatory i systemy wykorzystywane do identyfikacji zachowań agresywnych, umożliwiając wykrywanie szkodliwych wzorców zachowań.
„Aby chronić prywatność użytkowników, korzystamy z kombinacji zautomatyzowanych narzędzi i procesów filtrowania lub ukrywania poufnych danych. Nie sprzedajemy danych użytkowników stronom trzecim” – napisała firma.
Firma Anthropic jest często uznawana za jedną z wiodących firm w dziedzinie bezpiecznej sztucznej inteligencji. Anthropic opracowuje metodologię zwaną Constitutional AI, która określa zasady etyczne i wytyczne, których musi przestrzegać model. Anthropic jest również jedną z firm uczestniczących w programach dotyczących bezpiecznej sztucznej inteligencji z rządami USA, Wielkiej Brytanii i G7.
Źródło: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Komentarz (0)