En federal appellationsdomstol i Washington avslog den 8 april Anthropics begäran om att omedelbart stoppa Pentagons svartlistning av företagets AI-modeller av typen Claude från amerikanska militära kontrakt.
Federala domare avslår Anthropics begäran om rättslig prövning i målet om Claudes förbud mot militär AI och fastställer muntlig förhandling till maj

Huvudpunkter:
- D.C. Circuit avslog Anthropics begäran om ett akut uppskov den 8 april 2026, vilket innebär att Pentagons svartlistning av Claude AI förblir i kraft.
- Pentagons riskklassificering av leverantörskedjan påverkar stora leverantörer till försvarsdepartementet, däribland Amazon, Microsoft och Palantir.
- En påskyndad muntlig förhandling är planerad till den 19 maj 2026, ett avgörande som kan omforma den amerikanska regeringens upphandlingspolicy för AI.
Appellationsdomstolen beslutar att försvarsdepartementet får behålla Claude AI på svartlistan under rättsprocessen
Den amerikanska appellationsdomstolen för D.C. Circuit avslog i ett fyra sidor långt beslut den San Francisco-baserade AI-företagets begäran om ett brådskande uppskov av den ”riskklassificering för leverantörskedjan” som utfärdats av försvarsminister Pete Hegseth. Domen tillåter försvarsdepartementet att fortsätta hindra entreprenörer från att använda Claude medan rättsprocessen pågår. Muntliga förhandlingar har tidigarelagts till den 19 maj 2026.
Panelen erkände att Anthropic ”sannolikt skulle drabbas av en viss grad av irreparabel skada”, med hänvisning till både ekonomisk skada och skada på företagets anseende. Domarna Gregory Katsas och Neomi Rao, båda utnämnda av Trump, drog slutsatsen att intressebalansen talade till regeringens fördel, med hänvisning till den rättsliga hanteringen av hur Pentagon säkrar AI-teknik ”under en pågående militär konflikt”.
Beslutet i sig går tillbaka på ett sammanbrott i förhandlingarna mellan Anthropic och Pentagons tjänstemän i slutet av februari 2026. Det handlade om två restriktioner i Anthropics användarvillkor: ett förbud mot helt autonoma vapensystem, inklusive beväpnade drönarsvärmar som opererar utan mänsklig övervakning, och ett förbud mot massövervakning av amerikanska medborgare.
Emil Michael, undersekreterare för forskning och teknik samt Pentagons teknikchef, kallade dessa begränsningar för ”irrationella hinder” för militär konkurrenskraft, särskilt gentemot Kina. Tjänstemännen hänvisade till program som missilförsvarsinitiativet Golden Dome och behovet av snabbinsatsförmåga mot hypersoniska hot.
Anthropic erbjöd begränsade undantag från fall till fall men vägrade att ta bort de centrala säkerhetsbarriärerna, med hänvisning till tillförlitlighetsproblem med dagens AI när det gäller autonoma beslut med höga insatser. Förhandlingarna strandade. President Trump beordrade därefter alla federala myndigheter att sluta använda Anthropics teknik, med en sexmånaders utfasningsperiod för befintliga installationer.
Därefter följde Hegseths klassificering av företaget som en risk i leveranskedjan, en åtgärd som vanligtvis tillämpas på utländska aktörer såsom Huawei. Klassificeringen innebar att leverantörer, däribland Amazon, Microsoft och Palantir, var tvungna att sluta använda Claude i allt arbete kopplat till försvarsdepartementet. Anthropic kallade åtgärden för en ”olaglig hämndkampanj” för sin vägran att låta regeringen åsidosätta företagets säkerhetspolicyer för AI.
Anthropic väckte parallella stämningsansökningar i mars 2026. Den ena lämnades in vid den amerikanska distriktsdomstolen för norra Kalifornien; den andra riktade sig mot den specifika upphandlingslagen som reglerar risker i leveranskedjan i D.C. Circuit.
Den 26 mars beviljade den amerikanska distriktsdomaren Rita F. Lin Anthropic ett preliminärt förbudsföreläggande i Kalifornien-målet. Hon fastslog att administrationens åtgärder verkade vara mer bestraffande än skyddande, saknade tillräcklig laglig grund och överskred myndighetens befogenheter. Beslutet upphävde tillfälligt verkställigheten av klassificeringen, vilket gjorde det möjligt för regeringen och entreprenören att fortsätta använda Claude i väntan på ett slutgiltigt domstolsbeslut. Trump-administrationen överklagade till den nionde federala appellationsdomstolen.
Beslutet från D.C. Circuit den 8 april strider mot Lins dom, vilket skapar en juridisk konflikt om huruvida klassificeringen för närvarande är verkställbar. De två domstolarna granskar olika rättsliga ramverk, vilket förklarar den processuella splittringen.
Anthropic sade i ett uttalande att man fortfarande har förtroende för sin ståndpunkt. ”Vi är tacksamma för att domstolen insåg att dessa frågor måste lösas snabbt och är fortsatt övertygade om att domstolarna i slutändan kommer att enas om att dessa klassificeringar av leverantörskedjan var olagliga”, sade företaget.

Förhandsvisning av Claude Mythos: Anthropics ännu inte släppta AI upptäckte buggar i Linux och OpenBSD som människor missat i årtionden
Anthropics AI-system Claude Mythos har upptäckt tusentals sårbarheter av typen zero-day i alla större operativsystem och webbläsare. Projektet Glasswing lanseras med 100 miljoner dollar i kredit. read more.
Läs nu
Förhandsvisning av Claude Mythos: Anthropics ännu inte släppta AI upptäckte buggar i Linux och OpenBSD som människor missat i årtionden
Anthropics AI-system Claude Mythos har upptäckt tusentals sårbarheter av typen zero-day i alla större operativsystem och webbläsare. Projektet Glasswing lanseras med 100 miljoner dollar i kredit. read more.
Läs nu
Förhandsvisning av Claude Mythos: Anthropics ännu inte släppta AI upptäckte buggar i Linux och OpenBSD som människor missat i årtionden
Läs nuAnthropics AI-system Claude Mythos har upptäckt tusentals sårbarheter av typen zero-day i alla större operativsystem och webbläsare. Projektet Glasswing lanseras med 100 miljoner dollar i kredit. read more.
Branschobservatörer har pekat på fallet som en varningssignal för den amerikanska AI-utvecklingen. Matt Schruers, VD för Computer and Communications Industry Association, sade att Pentagons åtgärder och D.C. Circuit-domen ”skapar betydande affärsmässig osäkerhet i en tid då amerikanska företag konkurrerar med globala motsvarigheter om ledarskapet inom AI.”
Fallet går nu vidare till den påskyndade muntliga förhandlingen den 19 maj i D.C. Circuit, medan överklagandet till Ninth Circuit fortfarande är anhängigt. Utfallet kommer sannolikt att definiera gränserna för den federala maktens befogenhet att beteckna inhemska AI-företag som nationella säkerhetsrisker och avgöra hur långt regeringen kan gå när det gäller att pressa privata företag att ändra sina säkerhetspolicyer för AI.















