In einem rasanten Zeitraum von nur 120 Minuten, der Schockwellen durch das Silicon Valley und den „Beltway“ gesendet hat, hat die Beziehung der Bundesregierung zur Branche der künstlichen Intelligenz einen historischen Bruchpunkt erreicht. Nach einer mittäglichen Ankündigung von Präsident Donald Trump auf Truth Social, die ein totales Verbot von Anthropic-Produkten innerhalb der Bundesregierung erklärte, verschärfte Verteidigungsminister Pete Hegseth die Situation weiter. Bis zum Nachmittag stufte das Verteidigungsministerium (DoD) Anthropic offiziell als „Lieferkettenrisiko“ (Supply Chain Risk) ein.
Dieser Schritt markiert eine radikale Abkehr von früheren administrativen Haltungen gegenüber inländischen KI-Unternehmen. Während die Regierung solche Bezeichnungen historisch gesehen ausländischen Unternehmen vorbehalten hat – allen voran chinesischen Telekommunikationsriesen –, signalisiert die Anwendung dieses Labels auf ein in San Francisco ansässiges Unternehmen, das von Milliarden an amerikanischem Risikokapital unterstützt wird, eine neue Ära regulatorischer Volatilität. Anthropic hat bereits seine Absicht signalisiert, die Einstufung anzufechten, was die Bühne für einen hochkarätigen Rechtsstreit über die Zukunft der amerikanischen KI-Landschaft bereitet.
Um die Tragweite der Ankündigung von Minister Hegseth zu verstehen, muss man hinter die politische Rhetorik und in den Apparat der Bundesbeschaffung blicken. Wenn das DoD ein Unternehmen als Lieferkettenrisiko eingestuft, ist dies nicht nur eine Empfehlung, dessen Software zu meiden; es handelt sich um ein funktionales Blacklisting.
Unter dem Federal Acquisition Supply Chain Security Act (FASCSA) erlaubt eine solche Einstufung der Regierung, Ausschluss- oder Entfernungsanordnungen zu erlassen. Dies bedeutet, dass es der Bundesregierung nicht nur untersagt ist, Anthropics „Claude“-Modelle zu erwerben, sondern dass jeder Drittanbieter – von Verteidigungsriesen wie Lockheed Martin bis hin zu kleinen IT-Beratern – gezwungen sein könnte, Anthropic-Integrationen aus seinen Systemen zu entfernen, wenn er seine Regierungsverträge behalten möchte.
In praktischer Hinsicht erzeugt dies einen „Quarantäne“-Effekt. Wenn Anthropic als Risiko für die Integrität der bundesstaatlichen Lieferkette erachtet wird, werden alle Daten, die durch ihre Modelle fließen, als potenziell gefährdet oder als Gegenstand unbefugter Einflussnahme betrachtet.
Im Zentrum dieses Konflikts steht die Kernidentität von Anthropic. Gegründet von ehemaligen OpenAI-Führungskräften, hat sich Anthropic als das „Safety-First“-KI-Unternehmen vermarktet. Ihre proprietäre Trainingsmethode, bekannt als Constitutional AI, beinhaltet, dem Modell einen schriftlichen Satz von Prinzipien (eine „Verfassung“) zu geben, denen es bei der Generierung von Antworten folgen muss.
Während die Tech-Industrie dies weitgehend als Weg gelobt hat, um zu verhindern, dass KI schädlich oder voreingenommen wird, scheint die derzeitige Regierung diese Sicherheitsleitplanken durch eine andere Brille zu sehen. Kritiker innerhalb der Regierung haben diese Filter als eine Form von „algorithmischer Zensur“ oder „ideologischer Voreingenommenheit“ charakterisiert, die die objektive Rohdatenverarbeitung stören könnte, die für militärische und geheimdienstliche Anwendungen erforderlich ist.
Durch die Kennzeichnung des Unternehmens als Lieferkettenrisiko suggeriert das DoD, dass genau die Schutzmaßnahmen, die Anthropic einsetzt, um „Hilfsbereitschaft, Ehrlichkeit und Harmlosigkeit“ zu gewährleisten, in einem Kampf- oder strategischen Kontext eine Schwachstelle oder eine Weigerung, rechtmäßigen Befehlen zu folgen, darstellen könnten.
Anthropic existiert nicht in einem Vakuum. Das Unternehmen ist tief in die Infrastruktur der weltweit größten Cloud-Anbieter integriert. Amazon (AWS) und Google haben beide Milliarden in Anthropic investiert und hosten Claude auf ihren jeweiligen Plattformen (Bedrock und Vertex AI).
Diese Einstufung bringt diese Cloud-Titanen in eine unangenehme Lage. Wenn das DoD darauf beharrt, dass Anthropic ein Lieferkettenrisiko darstellt, erstreckt sich dieses Risiko dann auch auf die Plattformen, die sie hosten?
| Stakeholder | Potenzielle Auswirkungen |
|---|---|
| Bundesbehörden | Sofortige Migration von Claude-basierten Workflows zu Alternativen wie OpenAI oder xAI. |
| Verteidigungsunternehmen | Obligatorische Audits der Software-Stacks, um Anthropic-API-Aufrufe zu identifizieren und zu entfernen. |
| Cloud-Anbieter | Potenzieller Druck, Anthropic-Dienste innerhalb von GovCloud-Umgebungen zu isolieren oder einzuschränken. |
| Unternehmensnutzer | Erhöhte Unsicherheit hinsichtlich der langfristigen regulatorischen Stabilität des KI-Marktes. |
Die Reaktion von Anthropic erfolgte prompt. In einer kurzen Erklärung drückte das Unternehmen „Enttäuschung und Uneinigkeit“ aus und betonte, dass seine Technologie auf amerikanischem Boden, von amerikanischen Bürgern und mit einem primären Fokus auf nationale Sicherheit und Zuverlässigkeit entwickelt wurde.
Rechtsexperten vermuten, dass sich Anthropics Anfechtung wahrscheinlich auf den Standard „willkürlich und launisch“ (arbitrary and capricious) des Administrative Procedure Act (APA) konzentrieren wird. Um eine Einstufung als Lieferkettenrisiko aufrechtzuerhalten, muss das DoD in der Regel Beweise für eine glaubwürdige Bedrohung vorlegen. Da Anthropic ein inländisches Unternehmen ohne bekannte Verbindungen zu ausländischen Gegnern ist, könnte die Regierung gezwungen sein, geheime Begründungen für das Verbot offenzulegen – oder riskieren, dass die Anordnung von einem Bundesrichter aufgehoben wird.
Für CTOs und IT-Entscheidungsträger ist diese Eskalation ein Weckruf in Bezug auf den „Vendor Lock-in“ im Zeitalter der KI. Der plötzliche Übergang eines Hauptakteurs vom „Branchenführer“ zum „Lieferkettenrisiko“ verdeutlicht die Notwendigkeit einer diversifizierten KI-Strategie.
Während der Rechtsstreit beginnt, fragt sich die Tech-Industrie: Wenn ein Unternehmen, das auf dem Prinzip der Sicherheit gegründet wurde, als Risiko eingestuft werden kann, wer ist dann im neuen Regulierungsklima wirklich sicher?



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen