Seit einem Jahr findet in der Welt der künstlichen Intelligenz eine stille Migration statt. Während OpenAIs ChatGPT weiterhin der bekannteste Name ist, packte eine bedeutende Gruppe datenschutzbewusster Power-User, Entwickler und Autoren ihre digitalen Koffer und wechselte zu Anthropics Claude. Das Narrativ war einfach: OpenAI wurde zu eng mit staatlichen Überwachungsinteressen verknüpft – verdeutlicht durch die Ernennung eines ehemaligen NSA-Direktors in den Vorstand – während Anthropic die prinzipientreue, sicherheitsorientierte Alternative blieb.
Doch die Realität der Tech-Branche ist selten so binär. Diese Woche erhielt dieses Narrativ einen deutlichen Dämpfer. Anthropic aktualisierte stillschweigend seine Protokolle und führt nun die Anforderung ein, dass einige Nutzer einen amtlichen Lichtbildausweis und ein Live-Selfie vorlegen müssen, um den Dienst weiterhin nutzen zu können. Für eine Community, die Claude speziell beigetreten ist, um dem Gefühl der Überwachung zu entgehen, ist die Ironie unübersehbar. Es wirft eine grundlegende Frage über die Zukunft des Internets auf: Können wir jemals wirklich einen hohen Nutzen erzielen, ohne unsere absolute Anonymität aufzugeben?
Um zu verstehen, warum sich dieser Schritt für manche wie ein Verrat anfühlt, müssen wir uns die Atmosphäre ansehen, die ihm vorausging. Mitte 2024 und im gesamten Jahr 2025 sah sich OpenAI mit einer Reihe von PR-Krisen in Bezug auf den Umgang mit Daten und seine Beziehung zu Bundesbehörden konfrontiert. Dies schuf ein Vakuum, das Anthropic gerne füllte. Sie vermarkteten sich als die Schöpfer von „Constitutional AI“, einem System, das von einer Reihe ethischer Prinzipien und nicht nur von rohen Datenmustern geleitet wird.
Für den Durchschnittsnutzer fühlte sich Claude wie eine durchdachtere, weniger „konzernlastige“ Version der KI-Zukunft an. Es war der unermüdliche Praktikant, der nicht nur die Arbeit erledigte, sondern sich scheinbar auch um die Regeln kümmerte. Doch die Flitterwochen des KI-Booms gehen zu Ende, und die regulatorische Realität hält Einzug. Die neue Identitätsprüfung von Anthropic ist keine willkürliche Laune; sie ist eine Reaktion auf den systemischen Druck beim Betrieb eines Werkzeugs, das zunehmend für hochriskante Aufgaben eingesetzt wird.
Obwohl es wie eine plötzliche Kehrtwende erscheint, zeigt der Blick auf das große Ganze eine sich verändernde Landschaft, in der „Vertrauen, aber Überprüfen“ zum obligatorischen Betriebsverfahren für jedes Unternehmen wird, das massive Rechenleistung verwaltet.
Praktisch gesehen baut Anthropic intern keine riesige Datenbank mit Reisepässen auf. Wie viele Fintech-Apps und Carsharing-Dienste lagern sie die Schwerstarbeit an eine externe Identitätsplattform namens Persona aus. Wenn ein Nutzer zur Verifizierung markiert wird, wird er aufgefordert, seinen Ausweis zu scannen und ein „Liveness“-Selfie zu machen, um zu beweisen, dass er kein Bot oder Deepfake ist.
Hinter dem Jargon der „Plattformintegrität“ stehen drei Hauptgründe, warum ein Unternehmen wie Anthropic diesen drastischen Schritt unternehmen würde:
Kurioserweise ist Anthropic der erste große Akteur, der dies zu einem sichtbaren Teil des Kundenerlebnisses macht. Während Google und Microsoft bereits riesige Mengen an Daten über Sie haben, haben sie Sie noch nicht gebeten, Ihren Führerschein in die Kamera zu halten, nur um mit ihrem Bot zu chatten. Der Schritt von Anthropic ist transparent, aber für viele auch erschreckend invasiv.
Aus Sicht der Verbraucher geht es bei der Wahl zwischen KI-Anbietern nicht mehr nur darum, wer bessere Poesie oder besseren Code schreibt. Es geht darum, welche „Steuer“ man bereit ist, für den Dienst zu zahlen.
| Merkmal | Anthropic (Claude) | OpenAI (ChatGPT) | Google (Gemini) |
|---|---|---|---|
| Primäre Datenquelle | Vom Nutzer bereitgestellte Prompts | Vom Nutzer bereitgestellte Prompts | Integriertes Google-Ökosystem |
| Identitätsprüfung | Amtlicher Ausweis/Selfie (für einige) | E-Mail/Telefonnummer | Google-Kontoverlauf |
| Training-Opt-out | Verfügbar für Pro/Team-Nutzer | In den Einstellungen verfügbar | In den Einstellungen verfügbar |
| Weitergabe an Dritte | Nutzt Persona für Ausweisprüfungen | Weitergabe an Sicherheitspartner | Interne Google-Datenweitergabe |
Im Wesentlichen sehen wir eine Spaltung im Umgang mit dem Datenschutz. Google und Microsoft wissen bereits, wer Sie sind, weil Sie in deren Ökosystemen leben. OpenAI kennt Sie durch Ihre Telefonnummer und Ihre Zahlungsmethode. Anthropic, dem diese tiefen historischen Daten fehlen, wählt eine robustere, „harte“ Verifizierungsmethode.
Für jemanden, der Claude nutzt, um ein PDF zusammenzufassen oder eine E-Mail zu entwerfen, mag sich dies wie übertriebener Aufwand anfühlen. Anders ausgedrückt: Es ist, als würde man nach einem Fingerabdruck gefragt, um eine öffentliche Bibliothek zu betreten. Der „Na und?“-Filter legt jedoch nahe, dass dies der Beginn eines breiteren Trends ist.
Da KI-Modelle immer fähiger werden, Aktionen in der realen Welt auszuführen – wie Flüge buchen, Geld überweisen oder auf Krankenakten zugreifen – wird die Notwendigkeit eines „Proof of Personhood“ (Nachweis der Menschlichkeit) wachsen. Wenn ein KI-Agent in Ihrem Namen handeln soll, muss das System zu 100 % sicher sein, dass tatsächlich Sie die Befehle erteilen.
Marktseitig könnte dieser Schritt dem Wachstum von Anthropic kurzfristig schaden. Die flüchtige Natur des Nutzervertrauens bedeutet, dass selbst eine kleine Hürde wie eine Ausweisprüfung die Menschen zurück zur Konkurrenz treiben kann. Aber aus einer resilienten Geschäftsperspektive wettet Anthropic wahrscheinlich darauf, dass sie durch ihre Rolle als das „konformste“ Unternehmen langfristig die bevorzugte Wahl für große Unternehmenskunden und Regierungsaufträge sein werden.
Letztendlich wurden die „Überwachungsängste“, die Nutzer zu Claude trieben, nicht gelöst; sie haben nur ihre Form geändert. Wir haben uns von der Sorge, dass unsere Daten zum Training eines Gehirns verwendet werden, zur Sorge bewegt, dass unsere physische Identität mit unseren digitalen Anfragen verknüpft wird.
Wenn Sie aufgefordert werden, Ihre Identität zu verifizieren, müssen Sie eine Entscheidung treffen. Anthropic gibt an, dass diese Daten nicht für das Training verwendet und von einem spezialisierten Sicherheitsunternehmen verwaltet werden. Für viele ist der Nutzen des „unermüdlichen Praktikanten“ den Tausch wert. Für andere ist die Anforderung ein Schritt zu weit.
Betrachtet man das große Ganze, sollten wir erwarten, dass dies zum Industriestandard wird. Die Ära des anonymen, leistungsstarken KI-Assistenten geht wahrscheinlich zu Ende. Da diese Werkzeuge zum digitalen Rohöl unserer Wirtschaft werden, werden die Torwächter einen Ausweis sehen wollen, bevor sie uns pumpen lassen.
Anstatt dies als Verrat eines einzelnen Unternehmens zu betrachten, sollten Sie es als Signal dafür sehen, wohin sich das gesamte Internet bewegt. Wir bewegen uns auf ein „verifiziertes Web“ zu, in dem Ihre digitalen Handlungen an Ihr physisches Selbst gebunden sind. Ob das die Welt sicherer oder nur restriktiver macht, ist eine Frage, die wir im nächsten Jahrzehnt beantworten werden. Halten Sie vorerst Ihren Reisepass bereit – Ihre KI könnte ihn brauchen.



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen