
Anthropic verwendet die Nutzerdaten aus dem KI-Dienst Claude in Zukunft standardmässig für das KI-Training.
Nutzer, die nicht möchten, dass ihre Daten für das KI-Training verwendet werden, müssen vor dem 28. September 2025 widersprechen.
Die Nutzerdaten, die für das KI-Training verwendet werden dürfen, speichert Anthropic während fünf Jahren.
Das KI-Training erfolgt nur mit Einwilligung der Nutzer. Im entsprechenden Dialog «Updates to Consumer Terms and Policies» ist die Einwilligung in das KI-Training allerdings vorausgewählt. In der Folge ist der «Opt-in» eigentlich ein «Opt-out».
Nutzer, die nicht verstehen, was «You can help improve Claude» bedeutet und auf «Accept» klicken, geben ihre Daten per sofort für das KI-Training frei.

Die Einwilligung kann jederzeit über die «Privacy»-Einstellungen mit Wirkung für die Zukunft zurückgezogen werden.
Am gleichen Ort ist es möglich, der Verwendung von «Location metadata» durch Anthropic zu widersprechen.
Die standardmässige Verwendung von Nutzerdaten für das KI-Training betrifft das Konsumenten-Angebot von Anthropic.
Das Konsumenten-Angebot umfasst Claude in den «Free»-, «Pro»- und «Max»-Versionen. Die «Pro»-Version kostet USD 20.00 pro Monat, die «Max»-Version kostet USD 100.00 oder mehr pro Monat.
Die Nutzer dieser Versionen von Claude bezahlen standardmässig mit ihrem Geld und mit ihren Nutzerdaten.
Für Anthropic sind Nutzerdaten die günstigsten Trainingsdaten. Für das Herunterladen und Speichern von Büchern aus Schattenbibliotheken verpflichtete sich Anthropic kürzlich, eine Entschädigung von USD 3’000.00 pro Buch an Autoren zu bezahlen.
Nicht betroffen ist das kommerzielle Angebot, zum Beispiel die API von Anthropic und die «Team & Enterprise»-Versionen.
In der «Team»-Version kostet Claude USD 30.00 pro Monat, wobei aber für mindestens fünf Nutzer bezahlt werden muss, was USD 150.00 pro Monat entspricht. Für die «Enterprise»-Version veröffentlicht Anthropic keine Preise.
Mit Blick auf die Compliance sollten Behörden, Organisationen und Unternehmen eigentlich nur die «Enterprise»-Version nutzen. Die hohen Kosten verhindern aber in vielen Fällen eine solche Nutzung.
Siehe auch: Updates to Consumer Terms and Privacy Policy (Anthropic) mit Einzelheiten, zum Beispiel im Zusammenhang mit gelöschten Chats.
Bild: OpenAI / ChatGPT.