Drevet av
News

Føderal dommer hindrer Pentagon i å stemple Anthropic som en trussel mot nasjonal sikkerhet

Denne siste uken blokkerte en føderal dommer i San Francisco Pentagon og Trump-administrasjonen fra å håndheve en nasjonal sikkerhetsklassifisering mot Anthropic, selskapet for kunstig intelligens (KI) som nektet å fjerne sikkerhetsrestriksjoner fra sine Claude-modeller.

SKREVET AV
DEL
Føderal dommer hindrer Pentagon i å stemple Anthropic som en trussel mot nasjonal sikkerhet

Domstol stanser Trump-administrasjonens forbud mot Anthropics Claude-KI for føderale etater

Den amerikanske distriktsdommeren Rita F. Lin utstedte den midlertidige forføyningen 26. mars, og fant at myndighetenes handlinger mot Anthropic sannsynligvis brøt med First Amendment, fratok selskapet rettssikkerhet, og gikk utover lovhjemmel etter Administrative Procedure Act. Avgjørelsen er satt på vent i sju dager, noe som gir administrasjonen til omtrent 2. april til å sende inn en hasteanke til Ninth Circuit.

Tvisten begynte da Forsvarsdepartementet (DoD) søkte ubegrenset tilgang til Claude for føderal bruk. Anthropic hadde lenge opprettholdt to unntak i sin policy for akseptabel bruk: Claude skulle ikke brukes til omfattende innenlandsk masseovervåking av amerikanske borgere eller til dødelige autonome våpensystemer som opererer uten meningsfull menneskelig kontroll. DoD krevde at disse sikkerhetsrekkverkene ble fjernet. Anthropic nektet.

Forhandlingene brøt sammen sent i 2025. Konflikten ble offentlig gjennom CEO Dario Amodeis skriftlige uttalelser og et essay som redegjorde for selskapets standpunkt om KI-sikkerhet. DoD-tjenestemenn oppfattet restriksjonene som at Anthropic forsøkte å diktere myndighetspolitikk.

27. feb. 2026 postet president Trump på Truth Social og instruerte alle føderale etater til umiddelbart å stanse bruk av Anthropics teknologi, med en utfasing over seks måneder. Forsvarsminister Pete Hegseth kunngjorde en klassifisering som risiko i forsyningskjeden under 10 U.S.C. § 3252 — en lovbestemmelse som tidligere har blitt brukt mot utenlandske motstandere — og stemplet Anthropic som en potensiell risiko for «sabotasje» og «undergraving».

Flere føderale kontraktører satte på pause eller avsluttet avtaler med selskapet etter klassifiseringen. Anthropic svarte og tok ut søksmål 9. mars i Northern District of California, med påstander om gjengjeldelse, brudd på rettssikkerhet og brudd på APA. En relatert sak ble reist i D.C. Circuit.

I en 43-siders kjennelse påla dommer Lin DoD, 17 andre føderale etater og minister Hegseth å avstå fra å iverksette eller håndheve noen av de omstridte tiltakene. Hun beordret gjenoppretting av status quo, slik at Anthropic kan fortsette eksisterende føderale kontrakter og partnerskap.

Lin skrev at myndighetenes opptreden representerte «klassisk ulovlig gjengjeldelse i strid med First Amendment». Hun bemerket tidspunktet for tiltakene, sammen med intern myndighetskommunikasjon som refererte til Anthropics «retorikk», «arroganse» og «hardhendte press», pekte direkte på en straffende hensikt knyttet til selskapets offentlige uttalelser om KI-sikkerhet.

Når det gjelder rettssikkerhet, fant retten at myndighetene hadde frarøvet Anthropic frihetsinteresser knyttet til selskapets omdømme og forretningsdrift uten å gi forhåndsvarsel eller en høring. Lin fant også at den lovfestede klassifiseringen aldri tidligere hadde blitt brukt mot et amerikansk selskap under slike omstendigheter, og at tidligere myndighetsgodkjenning av Anthropic.

Dette inkluderer Top Secret-klareringer, FedRAMP-godkjenning og kontrakter verdt opptil 200 millioner dollar — viste ingen reell sikkerhetsbekymring. «Ingenting i den relevante lovbestemmelsen støtter den orwellske forestillingen om at et amerikansk selskap kan stemples som en potensiell motstander og sabotør av USA for å uttrykke uenighet med myndighetene», skrev Lin.

Retten fant potensiell økonomisk skade for Anthropic i størrelsesorden hundrevis av millioner til milliarder av dollar, samt omdømmeskade som økonomisk kompensasjon ikke fullt ut kunne reparere. Amicus-innlegg fra militære ledere og KI-forskere viste til risikoer for forsvarsberedskap og den bredere debatten om KI-sikkerhet.

Anthropic sa at det var takknemlig for domstolens raske behandling, og at det planla å fortsette å samarbeide med den føderale regjeringen. Selskapet uttalte at målet fortsatt var å sikre at amerikanere har tilgang til trygg og pålitelig KI.

Forføyningen løser ikke den underliggende kontraktstvisten. Ingen endelig realitetsavgjørelse er avsagt. En separat utfordring i D.C. Circuit er fortsatt under behandling, og administrasjonen beholder muligheten til å anke.

FAQ 🔎

  • Hva avgjorde den føderale dommeren om Anthropic? USAs distriktsdommer Rita F. Lin utstedte en midlertidig forføyning 26. mars som blokkerer Pentagon og Trump-administrasjonen fra å håndheve en nasjonal sikkerhetsklassifisering og et føderalt forbud mot Anthropic og selskapets Claude-KI-modeller.
  • Hvorfor klassifiserte Pentagon Anthropic som en risiko i forsyningskjeden? DoD ønsket ubegrenset bruk av Claude-KI, inkludert til masseovervåking og autonome våpen, og stemplet Anthropic som en risiko i forsyningskjeden etter at selskapet nektet å fjerne disse sikkerhetsrestriksjonene.
  • Er forføyningen i kraft nå? Forføyningen er satt på vent i sju dager fra 26. mars for å gi myndighetene tid til å sende inn en hasteanke, noe som betyr at den ikke trer i kraft før omtrent 2. april 2026.
  • Hva skjer videre i saken Anthropic vs. Pentagon? Saken fortsetter til realitetsbehandling, en relatert sak er fortsatt under behandling i D.C. Circuit, og Trump-administrasjonen kan be om hastetiltak fra Ninth Circuit før utsettelsen utløper.