V uplynulém týdnu federální soudce v San Franciscu zabránil Pentagonu a Trumpově administrativě v uplatnění opatření z důvodu národní bezpečnosti vůči společnosti Anthropic, která se zabývá umělou inteligencí (AI) a odmítla odstranit bezpečnostní omezení ze svých modelů Claude.
Federální soudce zabránil Pentagonu označit společnost Anthropic za hrozbu pro národní bezpečnost

Soud pozastavil zákaz Trumpovy administrativy týkající se AI Claude od společnosti Anthropic pro federální agentury
Americká okresní soudkyně Rita F. Lin vydala 26. března předběžné opatření s tím, že kroky vlády proti společnosti Anthropic pravděpodobně porušily první dodatek Ústavy Spojených států, upřely společnosti právo na spravedlivý proces a překročily zákonnou pravomoc podle zákona o správním řízení. Rozhodnutí je pozastaveno na sedm dní, což dává administrativě čas do přibližně 2. dubna na podání mimořádného odvolání k Devátému obvodnímu soudu.
Spor začal, když Ministerstvo obrany (DoD) požadovalo neomezený přístup k Claudovi pro federální účely. Společnost Anthropic dlouhodobě uplatňovala ve svých zásadách přijatelného použití dvě výjimky: Claude nesmí být používán k hromadnému domácímu sledování amerických občanů ani pro smrtící autonomní zbraňové systémy fungující bez smysluplného lidského dohledu. Ministerstvo obrany požadovalo, aby byly tyto ochranné mechanismy odstraněny. Společnost Anthropic to odmítla.
Jednání zkrachovala koncem roku 2025. Konflikt se dostal na veřejnost prostřednictvím písemných prohlášení generálního ředitele Daria Amodeiho a eseje, která nastínila postoj společnosti k bezpečnosti umělé inteligence. Úředníci Ministerstva obrany vnímali tato omezení jako pokus společnosti Anthropic diktovat vládní politiku.
27. února 2026 zveřejnil prezident Trump na Truth Social příspěvek, v němž nařídil všem federálním agenturám okamžitě zastavit používání technologie společnosti Anthropic s šestiměsíční lhůtou na její postupné vyřazení. Ministr obrany Pete Hegseth oznámil označení rizika v dodavatelském řetězci podle § 3252 zákona 10 U.S.C. — předpisu, který se dříve vztahoval na zahraniční protivníky — a označil společnost Anthropic za potenciální riziko „sabotáže“ a „podvracení“.
Několik federálních dodavatelů po tomto označení pozastavilo nebo ukončilo smlouvy s touto společností. Společnost Anthropic na to reagovala a 9. března podala žalobu u Severního okresního soudu v Kalifornii, v níž tvrdila, že došlo k odvetným opatřením, porušení práva na spravedlivý proces a porušení zákona APA. Související žaloba byla podána u Okresního soudu pro District of Columbia.
V 43stránkovém usnesení soudkyně Lin nařídila ministerstvu obrany, 17 dalším federálním agenturám a ministru Hegsethovi, aby neprováděli ani nevymáhali žádné z napadených opatření. Nařídila obnovení původního stavu, což společnosti Anthropic umožňuje pokračovat ve stávajících federálních smlouvách a partnerstvích.
Linová napsala, že chování vlády představovalo „klasickou nelegální odvetu v rozporu s prvním dodatkem“. Poznamenala, že načasování těchto opatření spolu s interní vládní komunikací odkazující na „rétoriku“, „aroganci“ a „nátlak“ společnosti Anthropic přímo poukazovalo na represivní záměr spojený s veřejnými prohlášeními společnosti o bezpečnosti umělé inteligence.
Pokud jde o řádný proces, soud shledal, že vláda zbavila společnost Anthropic zájmů na svobodě v oblasti její reputace a obchodních operací, aniž by jí poskytla předběžné oznámení nebo slyšení. Linová rovněž shledala, že zákonné označení nebylo za těchto okolností nikdy předtím použito na americkou společnost a že předchozí prověrka společnosti Anthropic ze strany vlády
To zahrnuje prověrky na úrovni „Top Secret“, autorizaci FedRAMP a smlouvy v hodnotě až 200 milionů dolarů – neprokázala žádné skutečné bezpečnostní obavy. „Nic v platném zákoně nepodporuje orwellovskou představu, že americká společnost může být označena za potenciálního protivníka a sabotéra USA za to, že vyjádřila nesouhlas s vládou,“ napsal Lin.
Soud shledal potenciální finanční škodu pro společnost Anthropic v řádu stovek milionů až miliard dolarů, spolu s poškozením reputace, které peněžní odškodnění nemůže plně napravit. Amici briefs od vojenských velitelů a výzkumníků v oblasti AI poukazovaly na rizika pro obrannou připravenost a širší debatu o bezpečnosti AI.
Společnost Anthropic uvedla, že je vděčná za rychlost soudu a že plánuje pokračovat ve spolupráci s federální vládou. Společnost prohlásila, že jejím cílem zůstává zajistit Američanům přístup k bezpečné a spolehlivé umělé inteligenci.
Předběžné opatření nevyřešilo základní smluvní spor. Nebylo vydáno žádné konečné rozhodnutí ve věci samé. Samostatná žaloba u odvolacího soudu v D.C. zůstává projednávaná a vláda si ponechává možnost odvolání.
Často kladené otázky 🔎
- Jak rozhodl federální soudce ve věci společnosti Anthropic? Federální soudkyně Rita F. Lin vydala 26. března předběžný soudní příkaz, který brání Pentagonu a Trumpově administrativě v prosazování označení jako hrozba pro národní bezpečnost a federálního zákazu vůči společnosti Anthropic a jejím modelům umělé inteligence Claude.
- Proč Pentagon označil společnost Anthropic za riziko pro dodavatelský řetězec? Ministerstvo obrany požadovalo neomezené používání AI Claude, včetně hromadného sledování a autonomních zbraní, a označilo společnost Anthropic za riziko pro dodavatelský řetězec poté, co společnost odmítla odstranit tato bezpečnostní omezení.
- Je předběžné opatření v současné době v platnosti? Předběžné opatření je od 26. března na sedm dní pozastaveno, aby mohla vláda podat mimořádné odvolání, což znamená, že vstoupí v platnost až přibližně 2. dubna 2026.
- Jak bude případ Anthropic vs. Pentagon pokračovat? Případ pokračuje ve věci samé, související řízení zůstává projednávané u odvolacího soudu v D.C. a Trumpova administrativa může před uplynutím odkladu požádat o mimořádné opatření u devátého odvolacího soudu.














