Anthropic verlangt nun bei bestimmten Nutzern seiner KI-Plattform „Claude“ selektiv eine Identitätsprüfung anhand amtlicher Ausweisdokumente und macht den Zugriff auf einige Funktionen und Abonnements von einer Identitätsprüfung abhängig.
Anthropic erweitert Claude um eine Identitätsprüfung für ausgewählte KI-Nutzer

Wichtige Erkenntnisse:
- Anthropic hat im April 2026 Identitätsprüfungen für Claude-Nutzer eingeführt und damit den Zugang zu einigen Funktionen eingeschränkt.
- Persona übernimmt die Überprüfung; Anthropic gibt an, dass keine Ausweisfotos auf seinen Systemen gespeichert werden.
- OpenAI und Google Gemini haben keine vergleichbaren Regeln, was Fragen zum Wettbewerb aufwirft.
Anthropic führt Identitätsprüfung für bestimmte Claude-Nutzer ein
Die Änderung erschien in einem Update des Hilfezentrums, das in der Woche vom 14. bis 16. April 2026 veröffentlicht wurde, und gilt nicht für alle Nutzer. Stattdessen erscheinen Aufforderungen in bestimmten Fällen, die mit höherwertigen Tarifen, erweiterten Funktionen oder internen Sicherheitsüberprüfungen verbunden sind.
Laut Anthropic besteht das Ziel darin, Missbrauch einzudämmen, Plattformregeln durchzusetzen und gesetzliche Verpflichtungen zu erfüllen. Das Unternehmen stellt die Einführung als Teil routinemäßiger Integritätsprüfungen dar und nicht als allgemeine Anforderung bei der Registrierung.
Nutzer, die auf die Aufforderung stoßen, müssen einen physischen, von einer Behörde ausgestellten Lichtbildausweis vorlegen und einen Live-Selfie-Scan durchführen. Anthropic gibt an, dass der Vorgang in der Regel weniger als fünf Minuten dauert und ein Gerät mit Kamera erfordert. Zu den akzeptierten Dokumenten gehören Reisepässe, Führerscheine und Personalausweise. Digitale Kopien, Screenshots oder vorübergehende Papierausweise werden ebenso abgelehnt wie nichtstaatliche Ausweise wie Studenten- oder Mitarbeiterausweise.
Der Verifizierungsablauf wird von Persona abgewickelt, das die Ausweisdaten im Auftrag von Anthropic verarbeitet. Anthropic gibt an, die zugrunde liegenden Ausweisbilder nicht auf seinen eigenen Systemen zu speichern. Stattdessen bewahrt Persona die Daten im Rahmen vertraglicher Beschränkungen auf, während Anthropic bei Bedarf für die Kontoüberprüfung oder Einsprüche Zugriff auf die Verifizierungsergebnisse behält.
Das Unternehmen gibt an, dass alle Daten verschlüsselt sind und ausschließlich zur Identitätsbestätigung, Betrugsbekämpfung und zur Einhaltung gesetzlicher Vorschriften verwendet werden. Anthropic betont zudem, dass Identitätsdaten nicht zum Trainieren seiner KI-Modelle verwendet und nicht für Marketingzwecke weitergegeben werden. Eine Weitergabe erfolgt nur im Rahmen gesetzlicher Anforderungen.
Dieser Schritt spiegelt den wachsenden Druck auf KI-Plattformen wider, Missbrauch, einschließlich Betrug und Identitätsdiebstahl, zu bekämpfen. Anthropic hat zudem Altersbeschränkungen angeführt; Berichten zufolge wurden einige Konten von Nutzern unter 18 Jahren bis zur Überprüfung gesperrt.
Die Reaktionen der Nutzer waren überwiegend negativ. „Claude verlangt nun vor dem Abonnement eine Identitätsprüfung durch eine amtliche ID (über Persona)“, schrieb ein Kritiker. „ChatGPT tut das nicht. Gemini tut das nicht. Anthropic hat seinen Konkurrenten gerade ein Geschenk gemacht“, fügte der X-Account hinzu. Auf Reddit erklärte eine Person:
„Albern. Ich kann es kaum erwarten, bis wir leistungsfähige Offline-LLMs haben, deren Betrieb kein Vermögen kostet.“
Der Mitbegründer der Medienmarke Bankless, Ryan Sean Adams, teilte ebenfalls seine Ansicht mit. „AI-KYC ist da. Neue Claude-Abonnenten wurden nach amtlichem Ausweis und Foto gefragt“, schrieb Adams. „Nicht einmal eine behördliche Anforderung – Anthropic macht das einfach, weil sie es wollen. Aber die Regulierung kommt. Als Nächstes werden Gesetze folgen: Keine KI ohne behördlich ausgestellten Ausweis. Jede KI-Nutzung wird auf den Einzelnen zurückverfolgt – keine private KI.“
Die Gegenreaktion wurde durch Vergleiche mit Wettbewerbern noch verstärkt. Plattformen wie OpenAI und Googles Gemini verlangen derzeit keine Überprüfung des amtlichen Ausweises für die Standardnutzung von Chatbots. Andere Wettbewerber, wie Venice AI, sind privat und nutzen lokale Modelle.

Vorschau auf „Claude Mythos“: Die unveröffentlichte KI von Anthropic hat Linux- und OpenBSD-Fehler aufgedeckt, die Menschen jahrzehntelang übersehen hatten
Die KI „Claude Mythos“ von Anthropic hat Tausende von Zero-Day-Schwachstellen in allen gängigen Betriebssystemen und Browsern aufgedeckt. Das Projekt Glasswing startet mit einem Guthaben von 100 Millionen Dollar. read more.
Jetzt lesen
Vorschau auf „Claude Mythos“: Die unveröffentlichte KI von Anthropic hat Linux- und OpenBSD-Fehler aufgedeckt, die Menschen jahrzehntelang übersehen hatten
Die KI „Claude Mythos“ von Anthropic hat Tausende von Zero-Day-Schwachstellen in allen gängigen Betriebssystemen und Browsern aufgedeckt. Das Projekt Glasswing startet mit einem Guthaben von 100 Millionen Dollar. read more.
Jetzt lesen
Vorschau auf „Claude Mythos“: Die unveröffentlichte KI von Anthropic hat Linux- und OpenBSD-Fehler aufgedeckt, die Menschen jahrzehntelang übersehen hatten
Jetzt lesenDie KI „Claude Mythos“ von Anthropic hat Tausende von Zero-Day-Schwachstellen in allen gängigen Betriebssystemen und Browsern aufgedeckt. Das Projekt Glasswing startet mit einem Guthaben von 100 Millionen Dollar. read more.
Dieser Unterschied hat einige Nutzer dazu veranlasst, sich zu fragen, ob strengere Kontrollen die Aktivitäten in Richtung weniger restriktiver Dienste verlagern könnten. Andere argumentieren, dass diese Entwicklung einen breiteren Trend hin zu KYC-ähnlichen Überprüfungen in der Verbraucher-KI signalisiert. Derzeit ist das System noch zielgerichtet und nicht universell. Seine Existenz deutet jedoch darauf hin, dass Identitätsüberprüfungen zu einer gängigeren Praxis werden könnten, wenn KI-Plattformen den Zugang zu leistungsfähigeren Tools erweitern.




