Drevet af
News

Føderal dommer forhindrer Pentagon i at betegne Anthropic som en trussel mod den nationale sikkerhed

I den forløbne uge forhindrede en føderal dommer i San Francisco Pentagon og Trump-administrationen i at håndhæve en klassificering som trussel mod den nationale sikkerhed over for Anthropic, det kunstige intelligens-firma (AI), der nægtede at fjerne sikkerhedsbegrænsningerne fra sine Claude-modeller.

SKREVET AF
DEL
Føderal dommer forhindrer Pentagon i at betegne Anthropic som en trussel mod den nationale sikkerhed

Domstol stopper Trump-administrationens forbud mod Anthropics Claude AI for føderale agenturer

Den amerikanske distriktsdommer Rita F. Lin udstedte det foreløbige påbud den 26. marts og fastslog, at regeringens handlinger mod Anthropic sandsynligvis krænkede den første forfatningstilføjelse, nægtede virksomheden en retfærdig rettergang og overskred den lovmæssige myndighed i henhold til loven om administrative procedurer. Afgørelsen er udsat i syv dage, hvilket giver administrationen indtil omkring den 2. april til at indgive en hasteappel til den niende kredsret.

Konflikten begyndte, da forsvarsministeriet (DoD) ønskede ubegrænset adgang til Claude til føderalt brug. Anthropic havde længe fastholdt to undtagelser i sin politik for acceptabel brug: Claude måtte ikke bruges til masseovervågning af amerikanske borgere eller til dødbringende autonome våbensystemer, der opererer uden meningsfuld menneskelig overvågning. Forsvarsministeriet krævede, at disse sikkerhedsforanstaltninger blev fjernet. Anthropic nægtede.

Forhandlingerne brød sammen i slutningen af 2025. Konflikten blev offentliggjort gennem CEO Dario Amodeis skriftlige erklæringer og et essay, der skitserede virksomhedens holdning til AI-sikkerhed. DoD-embedsmænd betragtede restriktionerne som et forsøg fra Anthropic på at diktere regeringens politik.

Den 27. februar 2026 skrev præsident Trump på Truth Social og pålagde alle føderale agenturer straks at standse brugen af Anthropics teknologi med en udfasningsperiode på seks måneder. Forsvarsminister Pete Hegseth annoncerede en risikoklassificering af forsyningskæden i henhold til 10 U.S.C. § 3252 — en lov, der tidligere blev anvendt på udenlandske fjender — hvor Anthropic blev stemplet som en potentiel risiko for "sabotage" og "subversion".

Flere føderale entreprenører satte aftaler med virksomheden i bero eller opsagde dem efter udpegningen. Anthropic reagerede og anlagde sag den 9. marts i Northern District of California med påstand om gengældelse, krænkelse af retssikkerheden og overtrædelse af APA. En tilsvarende sag blev anlagt i D.C. Circuit.

I en 43-siders kendelse pålagde dommer Lin forsvarsministeriet, 17 andre føderale agenturer og minister Hegseth at afstå fra at gennemføre eller håndhæve nogen af de anfægtede foranstaltninger. Hun beordrede genoprettelse af status quo, hvilket tillader Anthropic at fortsætte eksisterende føderale kontrakter og partnerskaber.

Lin skrev, at regeringens adfærd udgjorde "klassisk ulovlig gengældelse i strid med første forfatningstillæg." Hun bemærkede, at timingen af foranstaltningerne sammen med interne regeringskommunikationer, der henviste til Anthropics "retorik," "arrogance" og "magtudøvelse," pegede direkte på en straffende hensigt knyttet til virksomhedens offentlige udtalelser om AI-sikkerhed.

Hvad angår retssikkerheden, fandt retten, at regeringen havde frataget Anthropic frihedsrettighederne i forbindelse med virksomhedens omdømme og forretningsdrift uden at give forudgående varsel eller afholde en høring. Lin fandt også, at den lovbestemte betegnelse aldrig før var blevet anvendt på en amerikansk virksomhed under disse omstændigheder, og at regeringens tidligere sikkerhedskontrol af Anthropic

Dette omfatter Top Secret-godkendelser, FedRAMP-autorisation og kontrakter til en værdi af op til 200 millioner dollars — ikke viste nogen reel sikkerhedsrisiko. "Intet i den gældende lovgivning understøtter den orwellske forestilling om, at en amerikansk virksomhed kan stemples som en potentiel fjende og sabotør af USA for at udtrykke uenighed med regeringen," skrev Lin.

Retten fandt, at Anthropic kunne lide en potentiel økonomisk skade på mellem hundreder af millioner og milliarder af dollars samt en skade på omdømmet, som økonomisk erstatning ikke fuldt ud kunne reparere. Amici-breve fra militære ledere og AI-forskere nævnte risici for forsvarets beredskab og den bredere debat om AI-sikkerhed.

Anthropic sagde, at det var taknemmeligt for domstolens hurtige behandling af sagen, og at det planlagde at fortsætte samarbejdet med den føderale regering. Virksomheden erklærede, at dets mål fortsat var at sikre, at amerikanerne har adgang til sikker og pålidelig AI.

Forbuddet løser ikke den underliggende kontraktstrid. Der er ikke truffet nogen endelig afgørelse i sagen. En separat sag ved D.C. Circuit er stadig verserende, og regeringen bevarer muligheden for at appellere.

FAQ 🔎

  • Hvad afgav den føderale dommer vedrørende Anthropic? Den amerikanske distriktsdommer Rita F. Lin udstedte et foreløbigt påbud den 26. marts, der forhindrer Pentagon og Trump-administrationen i at håndhæve en national sikkerhedsbetegnelse og et føderalt forbud mod Anthropic og dets Claude AI-modeller.
  • Hvorfor udpegede Pentagon Anthropic som en risiko for forsyningskæden? Forsvarsministeriet ønskede ubegrænset brug af Claude AI, herunder til masseovervågning og autonome våben, og stemplede Anthropic som en risiko for forsyningskæden, efter at virksomheden nægtede at fjerne disse sikkerhedsrestriktioner.
  • Er forbuddet i kraft i øjeblikket? Forbuddet er udsat i syv dage fra den 26. marts for at give regeringen mulighed for at indgive en hasteappel, hvilket betyder, at det først træder i kraft omkring den 2. april 2026.
  • Hvad sker der nu i sagen Anthropic mod Pentagon? Sagen fortsætter på grundlag af sagens realiteter, en relateret sag verserer stadig i D.C. Circuit, og Trump-administrationen kan søge om hasteforanstaltninger fra Ninth Circuit, inden udsættelsen udløber.