Zvezno pritožbeno sodišče v Washingtonu je 8. aprila zavrnilo zahtevo podjetja Anthropic za takojšnjo prekinitev uvrstitve njegovih modelov umetne inteligence (AI) »Claude« na črni seznam Pentagona v zvezi z vojaškimi pogodbami ZDA.
Zvezni sodniki so zavrnili začasno odredbo v zadevi »Claude Military AI Ban« in določili ustno obravnavo za maj

Ključne ugotovitve:
- Okrožno sodišče v Washingtonu je 8. aprila 2026 zavrnilo zahtevo podjetja Anthropic za nujno odložitev izvršitve, s čimer je črna lista Pentagona za AI Claude ostala v veljavi.
- Označitev tveganja v dobavni verigi Pentagona vpliva na glavne izvajalce Ministrstva za obrambo, vključno z Amazonom, Microsoftom in Palantirjem.
- Pospešena ustna obravnava je predvidena za 19. maj 2026, sodba pa bi lahko spremenila politiko ameriške vlade glede javnih naročil na področju umetne inteligence.
Pritožbeno sodišče odloči, da lahko Ministrstvo za obrambo med sodnim sporom ohrani črni seznam za Claude AI
Pritožbeno sodišče ZDA za okrožje D.C. je v štiristranskem sklepu zavrnilo nujni predlog podjetja za umetno inteligenco s sedežem v San Franciscu, da se začasno ustavi označitev »tveganja v dobavni verigi«, ki jo je izdal minister za obrambo Pete Hegseth. Sodba omogoča Ministrstvu za obrambo, da izvajalcem še naprej prepoveduje uporabo Clauda, medtem ko poteka sodni spor. Ustna obravnava je bila pospešena na 19. maj 2026.
Senat je priznal, da bi podjetje Anthropic »verjetno utrpelo določeno stopnjo nepopravljive škode«, pri čemer je navedel tako finančno škodo kot škodo za ugled. Sodnika Gregory Katsas in Neomi Rao, oba imenovana s strani Trumpa, sta ugotovila, da je ravnotežje interesov naklonjeno vladi, pri čemer sta se sklicevala na sodno upravljanje načina, kako Pentagon varuje tehnologijo umetne inteligence »med aktivnim vojaškim konfliktom«.
Sama odločitev izhaja iz prekinitve pogajanj med Anthropicom in uradniki Pentagona konec februarja 2026. Sporno sta bili dve omejitvi v pogojih uporabe Anthropica: prepoved popolnoma avtonomnih oborožitvenih sistemov, vključno z roji oboroženih dronov, ki delujejo brez človeškega nadzora, in prepoved množičnega nadzora ameriških državljanov.
Emil Michael, podsekretar za raziskave in inženiring ter glavni tehnološki direktor Pentagona, je te omejitve označil za »neracionalne ovire« za vojaško konkurenčnost, zlasti proti Kitajski. Uradniki so navedli programe, kot je pobuda za protiraketno obrambo Golden Dome, in potrebo po zmogljivostih za hiter odziv na hipersonične grožnje.
Anthropic je ponudil omejene izjeme za posamezne primere, vendar je zavrnil odpravo osnovnih varnostnih zaščitnih ukrepov, pri čemer je navedel pomisleke glede zanesljivosti sedanje umetne inteligence pri avtonomnih odločitvah z visokim tveganjem. Pogajanja so se prekinila. Predsednik Trump je nato vsem zveznim agencijam naročil, naj prenehajo uporabljati tehnologijo podjetja Anthropic, z šestmesečnim obdobjem za postopno opuščanje obstoječih namestitev.
Sledila je Hegsethova označitev tveganja v dobavni verigi, ukrep, ki se običajno uporablja za tuje subjekte, kot je Huawei. Oznaka je od izvajalcev, vključno z Amazonom, Microsoftom in Palantirjem, zahtevala, da prenehajo uporabljati Clauda pri kakršnem koli delu, povezanem z Ministrstvom za obrambo. Anthropic je ta korak označil za »nezakonito kampanjo maščevanja« zaradi svoje zavrnitve, da bi vladi dovolil, da prevlada nad svojimi varnostnimi politikami umetne inteligence.
Anthropic je marca 2026 vložil vzporedne tožbe. Ena je bila vložena pri okrožnem sodišču ZDA za severni okraj Kalifornije; druga je bila usmerjena proti konkretnemu zakonu o javnih naročilih, ki ureja tveganje v dobavni verigi v okrožju D.C.
26. marca je okrožna sodnica ZDA Rita F. Lin v kalifornijskem primeru odobrila Anthropicu začasno odredbo. Odločila je, da so ukrepi administracije videti bolj kaznovalni kot zaščitni, da jim primanjkuje zadostna zakonska utemeljitev in da presegajo pooblastila. Ta odredba je začasno razveljavila izvrševanje označitve, kar vladi in izvajalcem omogoča nadaljnjo uporabo Clauda do konca sodnega postopka. Trumpova administracija se je pritožila na deveti okrožni sodni okraj.
Odločitev okrožnega sodišča v Washingtonu z dne 8. aprila je v nasprotju z odločitvijo sodnice Lin, kar ustvarja pravno napetost glede tega, ali je označitev trenutno izvršljiva. Obe sodišči pregledujeta različna zakonska okvira, kar pojasnjuje postopkovno nesoglasje.
Anthropic je v izjavi navedel, da ostaja prepričan v svoje stališče. »Hvaležni smo, da je sodišče priznalo, da je treba te zadeve hitro rešiti, in ostajamo prepričani, da se bodo sodišča na koncu strinjala, da so bile te označitve v dobavni verigi nezakonite,« je dejalo podjetje.

Predogled igre Claude Mythos: Neizdana umetna inteligenca podjetja Anthropic je odkrila napake v sistemih Linux in OpenBSD, ki so jih ljudje desetletja spregledali
Umetna inteligenca Claude Mythos podjetja Anthropic je odkrila na tisoče ranljivosti »zero-day« v vseh glavnih operacijskih sistemih in brskalnikih. Projekt Glasswing se začenja s 100 milijoni dolarjev v obliki kreditov. read more.
Preberi zdaj
Predogled igre Claude Mythos: Neizdana umetna inteligenca podjetja Anthropic je odkrila napake v sistemih Linux in OpenBSD, ki so jih ljudje desetletja spregledali
Umetna inteligenca Claude Mythos podjetja Anthropic je odkrila na tisoče ranljivosti »zero-day« v vseh glavnih operacijskih sistemih in brskalnikih. Projekt Glasswing se začenja s 100 milijoni dolarjev v obliki kreditov. read more.
Preberi zdaj
Predogled igre Claude Mythos: Neizdana umetna inteligenca podjetja Anthropic je odkrila napake v sistemih Linux in OpenBSD, ki so jih ljudje desetletja spregledali
Preberi zdajUmetna inteligenca Claude Mythos podjetja Anthropic je odkrila na tisoče ranljivosti »zero-day« v vseh glavnih operacijskih sistemih in brskalnikih. Projekt Glasswing se začenja s 100 milijoni dolarjev v obliki kreditov. read more.
Opazovalci industrije so primer označili kot opozorilni znak za razvoj umetne inteligence v ZDA. Matt Schruers, izvršni direktor Združenja računalniške in komunikacijske industrije, je dejal, da ukrepi Pentagona in odločba okrožnega sodišča v Washingtonu »ustvarjajo znatno poslovno negotovost v času, ko ameriška podjetja tekmujejo z globalnimi konkurenti za vodilno vlogo na področju umetne inteligence«.
Zadeva se zdaj nadaljuje s pospešeno ustno obravnavo 19. maja na okrožnem sodišču v Washingtonu, D.C., medtem ko je pritožba na devetem okrožnem sodišču še v teku. Izid bo verjetno opredelil meje zvezne oblasti pri označevanju domačih podjetij za umetno inteligenco kot tveganja za nacionalno varnost in določil, kako daleč lahko vlada gre pri pritiskovanju na zasebna podjetja, da spremenijo svoje varnostne politike na področju umetne inteligence.















