Drevet av
News

Føderale dommere avslår Anthropic-krav om lettelser i forbudet mot Claudes militære KI, fastsetter muntlige høringer i mai

En føderal ankedomstol i Washington avviste 8. april Anthropics forsøk på umiddelbart å stanse Pentagons svartelisting av selskapets Claude-modeller for kunstig intelligens (AI) fra amerikanske militærkontrakter.

SKREVET AV
DEL
Føderale dommere avslår Anthropic-krav om lettelser i forbudet mot Claudes militære KI, fastsetter muntlige høringer i mai

Viktige punkter:

  • D.C. Circuit avslo Anthropics begjæring om en hastestans 8. april 2026, slik at Pentagons svarteliste av Claude AI forblir i kraft.
  • Pentagons risikoklassifisering for forsyningskjeden påvirker store DoD-leverandører, inkludert Amazon, Microsoft og Palantir.
  • Fremskyndede muntlige forhandlinger er satt til 19. mai 2026, en avgjørelse som kan omforme USAs politikk for offentlige AI-anskaffelser.

Ankedomstol slår fast at DoD kan beholde Claude AI-svartelisten under rettsprosessen

USAs lagmannsrett for D.C. Circuit, i en fire sider lang kjennelse, avviste det San Francisco-baserte AI-selskapets hastebegjæring om å sette på pause en «forsyningskjederisiko»-klassifisering utstedt av forsvarsminister Pete Hegseth. Kjennelsen gjør at forsvarsdepartementet kan fortsette å hindre leverandører i å bruke Claude mens rettsprosessen pågår. Muntlige forhandlinger ble fremskyndet til 19. mai 2026.

Panelet erkjente at Anthropic «sannsynligvis vil lide en viss grad av uopprettelig skade», og viste til både økonomisk tap og omdømmeskade. Dommerne Gregory Katsas og Neomi Rao, begge utnevnt av Trump, konkluderte med at interesseavveiingen talte i regjeringens favør, og viste til domstolenes håndtering av hvordan Pentagon sikrer AI-teknologi «under en aktiv militær konflikt».

Selve klassifiseringen kan spores tilbake til et sammenbrudd i forhandlingene mellom Anthropic og Pentagon-tjenestemenn i slutten av februar 2026. Stridspunktet var to begrensninger i Anthropics bruksvilkår: et forbud mot fullt autonome våpensystemer, inkludert bevæpnede dronesvermer som opererer uten menneskelig tilsyn, og et forbud mot massesurveillance av amerikanske borgere.

Emil Michael, understatssekretær for forskning og ingeniørfag og Pentagons teknologidirektør, kalte disse begrensningene «irrasjonelle hindringer» for militær konkurranseevne, særlig mot Kina. Tjenestemenn viste til programmer som missilforsvarsinitiativet Golden Dome og behovet for rask responskapasitet mot hypersoniske trusler.

Anthropic tilbød begrensede unntak fra sak til sak, men nektet å fjerne de grunnleggende sikkerhetsrekkverkene, og viste til pålitelighetsbekymringer ved dagens AI for autonome beslutninger med høy innsats. Samtalene brøt sammen. President Trump ga deretter alle føderale etater ordre om å slutte å bruke Anthropics teknologi, med en seks måneders utfasing for eksisterende utrullinger.

Hegseths klassifisering av forsyningskjederisiko fulgte, et tiltak som vanligvis brukes mot utenlandske aktører som Huawei. Merkingen påla leverandører, inkludert Amazon, Microsoft og Palantir, å slutte å bruke Claude i alt arbeid knyttet til DoD. Anthropic kalte tiltaket en «ulovlig gjengjeldelseskampanje» for selskapets avslag på å la myndighetene overstyre dets AI-sikkerhetspolicyer.

Anthropic leverte parallelle søksmål i mars 2026. Det ene ble anlagt i US District Court for Northern District of California; det andre rettet seg mot den spesifikke anskaffelsesloven som regulerer forsyningskjederisiko i D.C. Circuit.

26. mars ga US District Judge Rita F. Lin Anthropic et foreløpig påbud i California-saken. Hun fastslo at administrasjonens tiltak fremsto mer straffende enn beskyttende, manglet tilstrekkelig lovhjemmel og overskred myndighet. Den kjennelsen løftet midlertidig håndhevingen av klassifiseringen, slik at bruk av Claude for myndigheter og leverandører kunne fortsette i påvente av full rettsbehandling. Trump-administrasjonen anket til Ninth Circuit.

D.C. Circuit-avgjørelsen 8. april går på tvers av Lins kjennelse og skaper en juridisk spenning om hvorvidt klassifiseringen for øyeblikket kan håndheves. De to domstolene vurderer ulike lovgrunnlag, noe som forklarer den prosessuelle splittelsen.

Anthropic uttalte i en erklæring at selskapet fortsatt er trygg på sitt standpunkt. «Vi er takknemlige for at retten erkjente at disse spørsmålene må avklares raskt, og vi er fortsatt sikre på at domstolene til slutt vil være enige i at disse forsyningskjede-klassifiseringene var ulovlige», sa selskapet.

Claude Mythos-forhåndsvisning: Anthropics ikke-utgitte KI knekket Linux- og OpenBSD-feil som mennesker har oversett i flere tiår

Claude Mythos-forhåndsvisning: Anthropics ikke-utgitte KI knekket Linux- og OpenBSD-feil som mennesker har oversett i flere tiår

Anthropics Claude Mythos AI fant tusenvis av null-dagers-sårbarheter på tvers av alle større operativsystemer og nettlesere. Project Glasswing lanseres med 100 millioner dollar i kreditter. read more.

Les nå

Bransjeobservatører pekte på saken som et varselsignal for amerikansk AI-utvikling. Matt Schruers, administrerende direktør i Computer and Communications Industry Association, sa at Pentagons tiltak og D.C. Circuit-kjennelsen «skaper betydelig forretningsusikkerhet i en tid der amerikanske selskaper konkurrerer med globale motparter om å lede an innen AI».

Saken går nå videre mot de fremskyndede muntlige forhandlingene 19. mai i D.C. Circuit, mens anken i Ninth Circuit fortsatt er under behandling. Utfallet vil trolig definere grensene for føderal makt til å klassifisere innenlandske AI-selskaper som nasjonale sikkerhetsrisikoer, og avgjøre hvor langt myndighetene kan gå i å presse private selskaper til å endre sine AI-sikkerhetspolicyer.