Ein Bundesberufungsgericht in Washington hat am 8. April den Antrag von Anthropic abgelehnt, die Aufnahme seiner Claude-KI-Modelle in die schwarze Liste des Pentagons für US-Militärverträge sofort auszusetzen.
Bundesrichter lehnen Antrag von Anthropic im Fall des KI-Verbots bei Claude Military ab und legen Termin für mündliche Verhandlung im Mai fest

Die wichtigsten Punkte:
- Der D.C. Circuit lehnte am 8. April 2026 den Antrag von Anthropic auf eine einstweilige Verfügung ab, sodass die Sperre des Pentagons für die Claude-KI weiterhin in Kraft bleibt.
- Die Einstufung als Risiko für die Lieferkette des Pentagons betrifft große Auftragnehmer des Verteidigungsministeriums, darunter Amazon, Microsoft und Palantir.
- Eine beschleunigte mündliche Verhandlung ist für den 19. Mai 2026 angesetzt; ein Urteil könnte die KI-Beschaffungspolitik der US-Regierung grundlegend verändern.
Berufungsgericht entscheidet: Verteidigungsministerium darf Claude AI während des Rechtsstreits auf der schwarzen Liste belassen
Das US-Berufungsgericht für den D.C. Circuit lehnte in einer vierseitigen Verfügung den Eilantrag des in San Francisco ansässigen KI-Unternehmens ab, eine von Verteidigungsminister Pete Hegseth erlassene Einstufung als „Risiko für die Lieferkette“ auszusetzen. Das Urteil erlaubt es dem Verteidigungsministerium, Auftragnehmern die Nutzung von Claude weiterhin zu untersagen, während das Gerichtsverfahren läuft. Die mündliche Verhandlung wurde auf den 19. Mai 2026 vorverlegt.
Das Gericht räumte ein, dass Anthropic „wahrscheinlich einen gewissen irreparablen Schaden erleiden würde“, und verwies dabei sowohl auf finanzielle als auch auf Reputationsschäden. Die Richter Gregory Katsas und Neomi Rao, beide von Trump ernannt, kamen zu dem Schluss, dass die Abwägung der Interessen zugunsten der Regierung ausfalle, und verwiesen dabei auf die gerichtliche Kontrolle darüber, wie das Pentagon KI-Technologie „während eines aktiven militärischen Konflikts“ sichert.
Die Einstufung selbst geht auf einen Zusammenbruch der Verhandlungen zwischen Anthropic und Vertretern des Pentagons Ende Februar 2026 zurück. Streitpunkt waren zwei Einschränkungen in den Nutzungsbedingungen von Anthropic: ein Verbot vollständig autonomer Waffensysteme, einschließlich bewaffneter Drohnenschwärme, die ohne menschliche Aufsicht operieren, sowie ein Verbot der Massenüberwachung von US-Bürgern.
Emil Michael, Unterstaatssekretär für Forschung und Technik und Chief Technology Officer des Pentagons, bezeichnete diese Einschränkungen als „irrationale Hindernisse“ für die militärische Wettbewerbsfähigkeit, insbesondere gegenüber China. Beamte verwiesen auf Programme wie die Raketenabwehrinitiative „Golden Dome“ und die Notwendigkeit schneller Reaktionsfähigkeiten gegen Hyperschallbedrohungen.
Anthropic bot begrenzte, fallbezogene Ausnahmen an, weigerte sich jedoch, die zentralen Sicherheitsvorkehrungen aufzuheben, und verwies dabei auf Bedenken hinsichtlich der Zuverlässigkeit der aktuellen KI bei autonomen Entscheidungen mit hohem Risiko. Die Gespräche scheiterten. Präsident Trump wies daraufhin alle Bundesbehörden an, die Nutzung der Technologie von Anthropic einzustellen, mit einer sechsmonatigen Auslaufphase für bestehende Einsätze.
Es folgte Hegseths Einstufung als Risiko für die Lieferkette, eine Maßnahme, die typischerweise auf ausländische Unternehmen wie Huawei angewendet wird. Diese Einstufung verpflichtete Auftragnehmer, darunter Amazon, Microsoft und Palantir, die Nutzung von Claude bei allen mit dem Verteidigungsministerium verbundenen Arbeiten einzustellen. Anthropic bezeichnete diesen Schritt als „rechtswidrige Vergeltungskampagne“ wegen seiner Weigerung, der Regierung zu gestatten, seine KI-Sicherheitsrichtlinien außer Kraft zu setzen.
Anthropic reichte im März 2026 parallele Klagen ein. Eine wurde beim US-Bezirksgericht für den nördlichen Bezirk von Kalifornien eingereicht; die andere richtete sich gegen das spezifische Beschaffungsgesetz, das das Lieferkettenrisiko im D.C. Circuit regelt. Am 26. März erließ die US-Bezirksrichterin Rita F. Lin im kalifornischen Fall eine einstweilige Verfügung zugunsten von Anthropic. Sie entschied, dass die Maßnahmen der Regierung eher strafend als schützend wirkten, keine ausreichende gesetzliche Rechtfertigung hätten und die Befugnisse überschritten. Diese Anordnung hob die Durchsetzung der Einstufung vorübergehend auf, sodass die Regierung und Auftragnehmer Claude bis zum Abschluss des vollständigen Rechtsstreits weiterhin nutzen dürfen. Die Trump-Regierung legte beim 9. Bundesberufungsgericht Berufung ein. Die Entscheidung des D.C. Circuit vom 8. April steht im Widerspruch zu Lins Urteil und führt zu einer rechtlichen Spannung darüber, ob die Einstufung derzeit durchsetzbar ist. Die beiden Gerichte prüfen unterschiedliche gesetzliche Rahmenbedingungen, was die prozessuale Uneinigkeit erklärt. Anthropic erklärte in einer Stellungnahme, dass es weiterhin von seiner Position überzeugt sei. „Wir sind dankbar, dass das Gericht erkannt hat, dass diese Fragen schnell geklärt werden müssen, und bleiben zuversichtlich, dass die Gerichte letztendlich zustimmen werden, dass diese Einstufungen der Lieferkette rechtswidrig waren“, so das Unternehmen.

Vorschau auf „Claude Mythos“: Die unveröffentlichte KI von Anthropic hat Linux- und OpenBSD-Fehler aufgedeckt, die Menschen jahrzehntelang übersehen hatten
Die KI „Claude Mythos“ von Anthropic hat Tausende von Zero-Day-Schwachstellen in allen gängigen Betriebssystemen und Browsern aufgedeckt. Das Projekt Glasswing startet mit einem Guthaben von 100 Millionen Dollar. read more.
Jetzt lesen
Vorschau auf „Claude Mythos“: Die unveröffentlichte KI von Anthropic hat Linux- und OpenBSD-Fehler aufgedeckt, die Menschen jahrzehntelang übersehen hatten
Die KI „Claude Mythos“ von Anthropic hat Tausende von Zero-Day-Schwachstellen in allen gängigen Betriebssystemen und Browsern aufgedeckt. Das Projekt Glasswing startet mit einem Guthaben von 100 Millionen Dollar. read more.
Jetzt lesen
Vorschau auf „Claude Mythos“: Die unveröffentlichte KI von Anthropic hat Linux- und OpenBSD-Fehler aufgedeckt, die Menschen jahrzehntelang übersehen hatten
Jetzt lesenDie KI „Claude Mythos“ von Anthropic hat Tausende von Zero-Day-Schwachstellen in allen gängigen Betriebssystemen und Browsern aufgedeckt. Das Projekt Glasswing startet mit einem Guthaben von 100 Millionen Dollar. read more.
Branchenbeobachter werteten den Fall als Warnsignal für die KI-Entwicklung in den USA. Matt Schruers, CEO der Computer and Communications Industry Association, sagte, die Maßnahmen des Pentagons und das Urteil des D.C. Circuit „schaffen erhebliche wirtschaftliche Unsicherheit in einer Zeit, in der US-Unternehmen mit globalen Konkurrenten um die Führungsrolle im Bereich KI konkurrieren“.
Der Fall steuert nun auf eine beschleunigte mündliche Verhandlung am 19. Mai vor dem D.C. Circuit zu, während die Berufung vor dem Ninth Circuit noch anhängig ist. Das Ergebnis wird voraussichtlich die Grenzen der Bundesbefugnisse definieren, inländische KI-Unternehmen als Risiken für die nationale Sicherheit einzustufen, und klären, wie weit die Regierung gehen kann, um privaten Unternehmen Druck auszuüben, ihre KI-Sicherheitsrichtlinien zu ändern.




