Federální odvolací soud ve Washingtonu dne 8. dubna zamítl žádost společnosti Anthropic o okamžité pozastavení rozhodnutí Pentagonu o zařazení jejích modelů umělé inteligence (AI) Claude na černou listinu v rámci kontraktů s americkou armádou.
Federální soudci zamítli žádost společnosti Anthropic o předběžné opatření v kauze zákazu vojenské umělé inteligence v případu Claude a stanovili termín ústního jednání na květen

Hlavní body:
- Okruh D.C. Circuit zamítl 8. dubna 2026 žádost společnosti Anthropic o mimořádné odložení, čímž umožnil, aby černá listina Pentagonu týkající se AI Claude zůstala v platnosti.
- Označení rizika v dodavatelském řetězci Pentagonu se týká hlavních dodavatelů ministerstva obrany, včetně společností Amazon, Microsoft a Palantir.
- Zrychlené ústní jednání je naplánováno na 19. května 2026 a jeho rozhodnutí by mohlo změnit politiku americké vlády v oblasti zadávání veřejných zakázek v oblasti AI.
Odvolací soud rozhodl, že ministerstvo obrany může během soudního sporu ponechat Claude AI na černé listině
Odvolací soud pro okruh D.C. ve čtyřstránkovém usnesení zamítl naléhavý návrh společnosti zabývající se umělou inteligencí se sídlem v San Franciscu na pozastavení označení „riziko v dodavatelském řetězci“ vydaného ministrem obrany Petem Hegsethem. Rozhodnutí umožňuje Ministerstvu obrany i nadále zakazovat dodavatelům používání Claude během soudního sporu. Ústní jednání bylo urychleno na 19. května 2026.
Soudní senát uznal, že společnost Anthropic by „pravděpodobně utrpěla určitou míru nenapravitelné újmy“, přičemž poukázal na finanční škody i poškození reputace. Soudci Gregory Katsas a Neomi Rao, oba jmenovaní prezidentem Trumpem, dospěli k závěru, že rovnováha zájmů hovoří ve prospěch vlády, a poukázali na soudní řízení týkající se toho, jak Pentagon zajišťuje technologii AI „během aktivního vojenského konfliktu“.
Samotné označení vychází z krachu jednání mezi společností Anthropic a představiteli Pentagonu koncem února 2026. Předmětem sporu byla dvě omezení v podmínkách služby společnosti Anthropic: zákaz plně autonomních zbraňových systémů, včetně ozbrojených rojů dronů operujících bez lidského dohledu, a zákaz hromadného sledování občanů USA.
Emil Michael, náměstek ministra pro výzkum a inženýrství a technologický ředitel Pentagonu, označil tato omezení za „iracionální překážky“ vojenské konkurenceschopnosti, zejména vůči Číně. Úředníci poukazovali na programy, jako je iniciativa protiraketové obrany Golden Dome, a na potřebu schopností rychlé reakce na hypersonické hrozby.
Společnost Anthropic nabídla omezené výjimky posuzované případ od případu, ale odmítla odstranit základní bezpečnostní opatření s odkazem na obavy ohledně spolehlivosti současné umělé inteligence při autonomních rozhodnutích s vysokými sázkami. Jednání zkrachovala. Prezident Trump poté nařídil všem federálním agenturám, aby přestaly používat technologii společnosti Anthropic, s šestiměsíční lhůtou na vyřazení stávajících nasazení.
Následovalo označení Hegsetha jako rizika pro dodavatelský řetězec, což je opatření obvykle uplatňované vůči zahraničním subjektům, jako je Huawei. Toto označení vyžadovalo, aby dodavatelé, včetně Amazonu, Microsoftu a Palantiru, přestali používat Clauda v jakékoli práci související s Ministerstvem obrany. Společnost Anthropic označila tento krok za „nezákonnou odvetnou kampaň“ za její odmítnutí nechat vládu obejít její bezpečnostní zásady pro AI.
Společnost Anthropic podala v březnu 2026 souběžné žaloby. Jedna byla podána u amerického okresního soudu pro severní okres Kalifornie; druhá se zaměřila na konkrétní zákon o veřejných zakázkách upravující rizika v dodavatelském řetězci v obvodu D.C.
26. března vydala americká okresní soudkyně Rita F. Lin ve věci v Kalifornii předběžné opatření ve prospěch společnosti Anthropic. Rozhodla, že kroky vlády se jeví spíše jako represivní než ochranné, postrádají dostatečné zákonné odůvodnění a překračují pravomoci. Tímto příkazem dočasně pozastavila vymáhání označení, což umožnilo vládě a dodavatelům pokračovat v používání Clauda až do úplného vyřešení sporu. Trumpova vláda se odvolala k devátému obvodnímu soudu.
Rozhodnutí obvodního soudu v D.C. ze dne 8. dubna je v rozporu s rozhodnutím soudkyně Lin, což vytváří právní napětí ohledně toho, zda je označení v současné době vymahatelné. Oba soudy posuzují odlišné zákonné rámce, což vysvětluje rozpor v postupu.
Společnost Anthropic v prohlášení uvedla, že si nadále stojí za svým stanoviskem. „Jsme vděční, že soud uznal, že tyto otázky je třeba rychle vyřešit, a zůstáváme přesvědčeni, že soudy nakonec uznají, že tato označení v dodavatelském řetězci byla protiprávní,“ uvedla společnost.

Náhled na Claude Mythos: Nevydaná umělá inteligence společnosti Anthropic odhalila chyby v Linuxu a OpenBSD, které lidem unikaly po celá desetiletí
Umělá inteligence Claude Mythos od společnosti Anthropic odhalila tisíce zranitelností typu zero-day ve všech hlavních operačních systémech a prohlížečích. Projekt Glasswing startuje s kreditem ve výši 100 milionů dolarů. read more.
Přečíst
Náhled na Claude Mythos: Nevydaná umělá inteligence společnosti Anthropic odhalila chyby v Linuxu a OpenBSD, které lidem unikaly po celá desetiletí
Umělá inteligence Claude Mythos od společnosti Anthropic odhalila tisíce zranitelností typu zero-day ve všech hlavních operačních systémech a prohlížečích. Projekt Glasswing startuje s kreditem ve výši 100 milionů dolarů. read more.
Přečíst
Náhled na Claude Mythos: Nevydaná umělá inteligence společnosti Anthropic odhalila chyby v Linuxu a OpenBSD, které lidem unikaly po celá desetiletí
PřečístUmělá inteligence Claude Mythos od společnosti Anthropic odhalila tisíce zranitelností typu zero-day ve všech hlavních operačních systémech a prohlížečích. Projekt Glasswing startuje s kreditem ve výši 100 milionů dolarů. read more.
Odborní pozorovatelé označili tento případ za varovný signál pro vývoj umělé inteligence v USA. Matt Schruers, generální ředitel Computer and Communications Industry Association, uvedl, že kroky Pentagonu a rozhodnutí Okresního soudu pro D.C. „vytvářejí značnou obchodní nejistotu v době, kdy americké společnosti soutěží se svými globálními protějšky o vedoucí postavení v oblasti umělé inteligence.“
Případ nyní směřuje k urychlenému ústnímu jednání před odvolacím soudem v Washingtonu, D.C., které se bude konat 19. května, přičemž odvolání u devátého odvolacího soudu je stále v řízení. Výsledek pravděpodobně vymezí hranice federální pravomoci označovat domácí firmy zabývající se umělou inteligencí za riziko pro národní bezpečnost a určí, jak daleko může vláda zajít v nátlaku na soukromé společnosti, aby změnily své bezpečnostní zásady v oblasti umělé inteligence.















