Savezni žalbeni sud u Washingtonu 8. travnja odbio je zahtjev Anthropica da odmah zaustavi Pentagonovo stavljanje njegovih Claude modela umjetne inteligencije (AI) na crnu listu za ugovore s američkom vojskom.
Savezni suci odbili su Anthropicov zahtjev za izuzeće u vezi s vojnom zabranom AI-ja Claude, usmena izlaganja zakazana za svibanj

Ključni zaključci:
- D.C. Circuit je 8. travnja 2026. odbio Anthropicu hitnu odgodu, čime je Pentagonova crna lista za Claude AI ostala na snazi.
- Pentagonova oznaka rizika u opskrbnom lancu pogađa velike izvođače Ministarstva obrane (DoD), uključujući Amazon, Microsoft i Palantir.
- Ubrzana usmena rasprava zakazana je za 19. svibnja 2026., a presuda bi mogla preoblikovati politiku nabave AI-ja u američkoj vladi.
Žalbeni sud presudio da DoD može zadržati crnu listu za Claude AI tijekom spora
Američki žalbeni sud za okrug D.C. (U.S. Court of Appeals for the D.C. Circuit) u nalogu na četiri stranice odbio je hitni prijedlog AI tvrtke sa sjedištem u San Franciscu da se pauzira oznaka „rizika u opskrbnom lancu” koju je izdao ministar obrane Pete Hegseth. Presuda omogućuje Ministarstvu obrane da i dalje brani izvođačima korištenje Claudea dok postupak traje. Usmena rasprava je ubrzana i zakazana za 19. svibnja 2026.
Vijeće je priznalo da bi Anthropic „vjerojatno pretrpio određeni stupanj nenadoknadive štete”, navodeći i financijsku i reputacijsku štetu. Suci Gregory Katsas i Neomi Rao, oboje imenovani od Trumpa, zaključili su da ravnoteža interesa ide u korist vlade, pozivajući se na sudsko upravljanje time kako Pentagon osigurava AI tehnologiju „tijekom aktivnog vojnog sukoba”.
Sama oznaka potječe iz sloma pregovora između Anthropica i dužnosnika Pentagona krajem veljače 2026. U sporu su bila dva ograničenja u Anthropicuovim uvjetima korištenja: zabrana potpuno autonomnih oružanih sustava, uključujući rojeve naoružanih dronova koji djeluju bez ljudskog nadzora, te zabrana masovnog nadzora američkih građana.
Emil Michael, podtajnik za istraživanje i inženjerstvo i glavni tehnološki direktor Pentagona, nazvao je ta ograničenja „iracionalnim preprekama” vojnoj konkurentnosti, osobito u odnosu na Kinu. Dužnosnici su naveli programe poput inicijative proturaketne obrane Golden Dome i potrebu za sposobnostima brzog odgovora na hipersonične prijetnje.
Anthropic je ponudio ograničene iznimke od slučaja do slučaja, ali je odbio ukloniti ključne sigurnosne zaštitne ograde, navodeći zabrinutost oko pouzdanosti trenutnog AI-ja za autonomne odluke visokog uloga. Pregovori su propali. Predsjednik Trump potom je naredio svim saveznim agencijama da prestanu koristiti Anthropicuovu tehnologiju, uz šestomjesečno postupno ukidanje za postojeće implementacije.
Nakon toga uslijedila je Hegsethova oznaka rizika u opskrbnom lancu, mjera koja se obično primjenjuje na strane subjekte poput Huaweija. Oznaka je zahtijevala da izvođači, uključujući Amazon, Microsoft i Palantir, prestanu koristiti Claude u bilo kojem poslu povezanom s DoD-om. Anthropic je taj potez nazvao „nezakonitom kampanjom odmazde” zbog njegova odbijanja da dopusti vladi da nadjača njegove politike sigurnosti AI-ja.
Anthropic je u ožujku 2026. podnio paralelne tužbe. Jedna je podnesena Okružnom sudu SAD-a za Sjeverni okrug Kalifornije (U.S. District Court for the Northern District of California); druga je ciljala na specifični zakon o nabavi koji uređuje rizik u opskrbnom lancu pred D.C. Circuitom.
Dana 26. ožujka sutkinja Okružnog suda SAD-a Rita F. Lin odobrila je Anthropicu preliminarnu zabranu u kalifornijskom postupku. Presudila je da se čini kako su potezi administracije više kažnjivački nego zaštitni, da nemaju dovoljno zakonskog opravdanja te da prekoračuju ovlasti. Ta je odluka privremeno ukinula provedbu oznake, dopuštajući da se korištenje Claudea u vladi i kod izvođača nastavi dok traje cjelokupni postupak. Trumpova administracija uložila je žalbu Devetom okružnom sudu (Ninth Circuit).
Odluka D.C. Circuita od 8. travnja suprotna je Lininoj presudi, stvarajući pravnu napetost oko toga je li oznaka trenutačno provediva. Dva suda razmatraju različite zakonske okvire, što objašnjava proceduralni raskorak.
Anthropic je u priopćenju rekao da i dalje ostaje uvjeren u svoju poziciju. „Zahvalni smo što je sud prepoznao da se ta pitanja moraju brzo riješiti i i dalje smo uvjereni da će se sudovi u konačnici složiti da su ove oznake opskrbnog lanca bile nezakonite”, priopćila je tvrtka.

Pregled Claude Mythosa: Neobjavljeni Anthropicov AI razotkrio je bugove u Linuxu i OpenBSD-u koje su ljudi propuštali desetljećima
Anthropicov Claude Mythos AI pronašao je tisuće zero-day ranjivosti u svakom glavnom operacijskom sustavu i pregledniku. Project Glasswing pokreće se uz 100 milijuna dolara kredita. read more.
Pročitaj
Pregled Claude Mythosa: Neobjavljeni Anthropicov AI razotkrio je bugove u Linuxu i OpenBSD-u koje su ljudi propuštali desetljećima
Anthropicov Claude Mythos AI pronašao je tisuće zero-day ranjivosti u svakom glavnom operacijskom sustavu i pregledniku. Project Glasswing pokreće se uz 100 milijuna dolara kredita. read more.
Pročitaj
Pregled Claude Mythosa: Neobjavljeni Anthropicov AI razotkrio je bugove u Linuxu i OpenBSD-u koje su ljudi propuštali desetljećima
PročitajAnthropicov Claude Mythos AI pronašao je tisuće zero-day ranjivosti u svakom glavnom operacijskom sustavu i pregledniku. Project Glasswing pokreće se uz 100 milijuna dolara kredita. read more.
Promatrači industrije označili su ovaj slučaj kao znak upozorenja za razvoj AI-ja u SAD-u. Matt Schruers, izvršni direktor udruženja Computer and Communications Industry Association, rekao je da Pentagonovi potezi i odluka D.C. Circuita „stvaraju značajnu poslovnu neizvjesnost u trenutku kada se američke tvrtke natječu s globalnim konkurentima za vodstvo u AI-ju”.
Slučaj sada ide prema ubrzanoj usmenoj raspravi 19. svibnja u D.C. Circuitu, dok je žalba pred Ninth Circuitom još uvijek u tijeku. Ishod će vjerojatno definirati granice savezne moći da domaće AI tvrtke označi kao rizike za nacionalnu sigurnost i odrediti dokle vlada može ići u pritisku na privatne tvrtke da izmijene svoje politike sigurnosti AI-ja.















