Anthropic hat seine Richtlinien aktualisiert. Foto: GK Images . |
Am 28. August veröffentlichte das KI-Unternehmen Anthropic aktualisierte Nutzungsbedingungen und Datenschutzrichtlinien. Nutzer können nun entscheiden, ob ihre Daten zur Verbesserung von Claude und zum besseren Schutz vor Missbrauch wie Phishing und Betrug verwendet werden dürfen.
Diese Benachrichtigung wird ab dem 28. August im Chatbot angezeigt. Nutzer haben einen Monat Zeit, die Bedingungen anzunehmen oder abzulehnen. Die neuen Richtlinien treten mit der Annahme sofort in Kraft. Nach dem 28. September müssen Nutzer entscheiden, ob sie Claude weiterhin nutzen möchten.
Laut Unternehmen sollen die Aktualisierungen nützlichere und leistungsfähigere KI-Modelle bereitstellen. Diese Option lässt sich einfach und jederzeit in den Datenschutzeinstellungen anpassen.
Diese Änderungen betreffen die Tarife Claude Free, Pro und Max, die Claude Code, das Programmierwerkzeug von Anthropic, beinhalten. Ausgenommen sind Dienste, die unter die Allgemeinen Geschäftsbedingungen fallen, wie Claude for Work, Claude Gov, Claude for Education sowie die Nutzung von APIs, auch über Drittanbieter wie Amazon Bedrock und Google Cloud Vertex AI.
In seinem Blogbeitrag erklärte Anthropic, dass die Teilnahme der Nutzer dazu beiträgt, die Sicherheit des Modells zu verbessern, seine Fähigkeit zur präzisen Erkennung schädlicher Inhalte zu erhöhen und das Risiko fälschlicher Kennzeichnung harmloser Konversationen zu verringern. Zukünftige Versionen von Claude werden zudem über erweiterte Fähigkeiten wie Programmierung, Analyse und logisches Denken verfügen.
Es ist wichtig, dass Nutzer die volle Kontrolle über ihre Daten haben und selbst entscheiden können, ob die Plattform diese in einem sichtbaren Fenster verwenden darf. Neue Konten können dies optional während des Registrierungsprozesses einrichten.
![]() |
Das Fenster im Chatbot, in dem die neuen Nutzungsbedingungen angezeigt werden. Bild: Anthropic. |
Die Datenaufbewahrungsfrist wurde auf 5 Jahre verlängert. Dies gilt für neue Konversationen oder Programmiersitzungen sowie für Antworten auf Chatbot-Anfragen. Gelöschte Daten werden nicht für das zukünftige Modelltraining verwendet. Wenn Nutzer der Bereitstellung von Daten für das Training nicht zustimmen, gilt weiterhin die bisherige Aufbewahrungsfrist von 30 Tagen.
Anthropic erläutert seine Vorgehensweise und argumentiert, dass KI-Entwicklungszyklen typischerweise viele Jahre dauern und die Wahrung der Datenkonsistenz während des gesamten Trainingsprozesses zu konsistenteren Modellen beiträgt. Eine längere Datenspeicherung verbessert zudem Klassifikatoren und Systeme zur Erkennung von Missbrauch und ermöglicht so die Aufdeckung schädlicher Verhaltensmuster.
„Zum Schutz der Privatsphäre unserer Nutzer verwenden wir eine Kombination aus automatisierten Tools und Prozessen, um sensible Daten zu filtern oder auszublenden. Wir verkaufen keine Nutzerdaten an Dritte“, schrieb das Unternehmen.
Anthropic gilt als eines der führenden Unternehmen im Bereich sicherer KI. Anthropic entwickelt eine Methodik namens „Constitutional AI“, die ethische Prinzipien und Richtlinien festlegt, die das Modell befolgen muss. Anthropic ist außerdem eines der Unternehmen, die sich an den Verpflichtungen zu sicherer KI mit den Regierungen der USA, Großbritanniens und der G7 beteiligen.
Quelle: https://znews.vn/cong-ty-ai-ra-han-cuoi-cho-nguoi-dung-post1580997.html







Kommentar (0)