Drivs av
News

Federal domare hindrar Pentagon från att beteckna Anthropic som ett hot mot den nationella säkerheten

Under den gångna veckan hindrade en federal domare i San Francisco Pentagon och Trump-administrationen från att tillämpa en klassificering som hot mot nationell säkerhet mot Anthropic, företaget inom artificiell intelligens (AI) som vägrade att ta bort säkerhetsbegränsningarna från sina Claude-modeller.

SKRIVEN AV
DELA
Federal domare hindrar Pentagon från att beteckna Anthropic som ett hot mot den nationella säkerheten

Domstol stoppar Trump-administrationens förbud mot Anthropics Claude AI för federala myndigheter

Den amerikanska distriktsdomaren Rita F. Lin utfärdade det preliminära förbudet den 26 mars och fann att regeringens åtgärder mot Anthropic sannolikt stred mot det första tillägget till konstitutionen, förnekade företaget rättssäkerhet och överskred den lagstadgade befogenheten enligt lagen om förvaltningsförfaranden. Domen är uppskjuten i sju dagar, vilket ger administrationen fram till ungefär den 2 april på sig att lämna in ett brådskande överklagande till den nionde federala appellationsdomstolen.

Konflikten började när försvarsdepartementet (DoD) begärde obegränsad tillgång till Claude för federalt bruk. Anthropic hade länge haft två undantag i sin policy för acceptabel användning: Claude skulle inte användas för massövervakning av amerikanska medborgare eller för dödliga autonoma vapensystem som drivs utan meningsfull mänsklig övervakning. Försvarsdepartementet krävde att dessa skyddsmekanismer skulle tas bort. Anthropic vägrade.

Förhandlingarna strandade i slutet av 2025. Konflikten blev offentlig genom VD Dario Amodeis skriftliga uttalanden och en essä som redogjorde för företagets ståndpunkt om AI-säkerhet. Tjänstemän vid försvarsdepartementet betraktade restriktionerna som ett försök från Anthropic att diktera regeringens politik.

Den 27 februari 2026 publicerade president Trump ett inlägg på Truth Social där han beordrade alla federala myndigheter att omedelbart upphöra med användningen av Anthropics teknik, med en sexmånaders utfasningsperiod. Försvarsminister Pete Hegseth tillkännagav en riskklassificering av leverantörskedjan enligt 10 U.S.C. § 3252 – en lag som tidigare tillämpats på utländska motståndare – och betecknade Anthropic som en potentiell risk för ”sabotage” och ”subversion”.

Flera federala entreprenörer pausade eller avslutade avtal med företaget efter klassificeringen. Anthropic svarade och väckte talan den 9 mars i Northern District of California, där man hävdade repressalier, brott mot rättssäkerheten och brott mot APA. En relaterad talan väcktes i D.C. Circuit.

I ett 43-sidigt beslut förbjöd domare Lin försvarsdepartementet, 17 andra federala myndigheter och minister Hegseth att genomföra eller verkställa någon av de ifrågasatta åtgärderna. Hon beordrade återställande av status quo, vilket tillåter Anthropic att fortsätta befintliga federala kontrakt och partnerskap.

Lin skrev att regeringens agerande utgjorde ”klassisk olaglig hämnd enligt första tillägget”. Hon noterade att tidpunkten för åtgärderna, tillsammans med intern kommunikation inom regeringen som hänvisade till Anthropics ”retorik”, ”arrogans” och ”påtryckningar”, pekade direkt på en straffande avsikt kopplad till företagets offentliga uttalanden om AI-säkerhet.

När det gäller rättssäkerhet fann domstolen att regeringen hade berövat Anthropic dess frihetsintressen i fråga om företagets anseende och affärsverksamhet utan att ge föregående meddelande eller hålla en förhandling. Lin fann också att den lagstadgade beteckningen aldrig tidigare hade tillämpats på ett amerikanskt företag under dessa omständigheter och att regeringens tidigare granskning av Anthropic

Detta inkluderar säkerhetsgodkännanden på högsta nivå, FedRAMP-auktorisering och kontrakt värda upp till 200 miljoner dollar – visade inga verkliga säkerhetsproblem. ”Ingenting i den styrande lagen stöder den orwellska uppfattningen att ett amerikanskt företag kan stämplas som en potentiell fiende och sabotör av USA för att ha uttryckt oenighet med regeringen”, skrev Lin.

Domstolen fann att Anthropic kunde drabbas av potentiella ekonomiska skador på hundratals miljoner till miljarder dollar, tillsammans med skador på företagets anseende som inte helt kan repareras med ekonomisk ersättning. Amici-inlagor från militära ledare och AI-forskare hänvisade till risker för försvarsberedskapen och den bredare debatten om AI-säkerhet.

Anthropic sade att man var tacksam för domstolens snabba handläggning och att man planerade att fortsätta samarbeta med den federala regeringen. Företaget uppgav att målet fortfarande var att säkerställa att amerikanerna har tillgång till säker och pålitlig AI.

Förbudsföreläggandet löser inte den underliggande avtalskonflikten. Inget slutgiltigt beslut i sakfrågan har fattats. En separat överklagan i D.C. Circuit är fortfarande anhängig, och administrationen behåller möjligheten att överklaga.

Vanliga frågor 🔎

  • Vad beslutade den federala domaren angående Anthropic? Den amerikanska distriktsdomaren Rita F. Lin utfärdade ett preliminärt föreläggande den 26 mars som hindrade Pentagon och Trump-administrationen från att genomdriva en nationell säkerhetsklassificering och ett federalt förbud mot Anthropic och dess Claude AI-modeller.
  • Varför betecknade Pentagon Anthropic som en risk för leveranskedjan? Försvarsdepartementet ville ha obegränsad tillgång till Claude AI, bland annat för massövervakning och autonoma vapen, och betecknade Anthropic som en risk för leveranskedjan efter att företaget vägrade att ta bort dessa säkerhetsbegränsningar.
  • Är föreläggandet för närvarande i kraft? Föreläggandet är uppskjutet i sju dagar från den 26 mars för att ge regeringen möjlighet att lämna in ett brådskande överklagande, vilket innebär att det inte träder i kraft förrän omkring den 2 april 2026.
  • Vad händer härnäst i målet Anthropic mot Pentagon? Målet fortsätter att prövas i sak, en relaterad talan är fortfarande anhängig i D.C. Circuit, och Trump-administrationen kan komma att begära ett brådskande beslut från Ninth Circuit innan uppskovet löper ut.