Minulý týždeň federálny sudca v San Franciscu zabránil Pentagónu a Trumpovej administratíve uplatniť opatrenie týkajúce sa národnej bezpečnosti voči spoločnosti Anthropic, ktorá sa zaoberá umelou inteligenciou (AI) a odmietla odstrániť bezpečnostné obmedzenia zo svojich modelov Claude.
Federálny sudca zabránil Pentagónu označiť spoločnosť Anthropic za hrozbu pre národnú bezpečnosť

Súd pozastavil zákaz Trumpovej administratívy týkajúci sa umelej inteligencie Claude od spoločnosti Anthropic pre federálne agentúry
Sudkyňa okresného súdu USA Rita F. Lin vydala 26. marca predbežné opatrenie, v ktorom konštatovala, že kroky vlády proti spoločnosti Anthropic pravdepodobne porušili Prvý dodatok, odopreli spoločnosti právo na riadny súdny proces a prekročili zákonné právomoci podľa zákona o správnom konaní. Rozsudok je pozastavený na sedem dní, čo dáva administratíve čas približne do 2. apríla na podanie mimoriadneho odvolania na Deviaty okruhový súd.
Spor začal, keď Ministerstvo obrany (DoD) požadovalo neobmedzený prístup k Claude pre federálne účely. Spoločnosť Anthropic dlhodobo uplatňovala dve výnimky vo svojej politike prijateľného používania: Claude sa nebude používať na masové domáce sledovanie amerických občanov ani na smrtiace autonómne zbraňové systémy fungujúce bez zmysluplného ľudského dohľadu. Ministerstvo obrany požadovalo, aby boli tieto obmedzenia zrušené. Spoločnosť Anthropic to odmietla.
Rokovania zlyhali koncom roka 2025. Konflikt sa stal verejným prostredníctvom písomných vyhlásení generálneho riaditeľa Daria Amodeiho a eseje, v ktorej sa načrtával postoj spoločnosti k bezpečnosti umelej inteligencie. Úradníci ministerstva obrany vnímali tieto obmedzenia ako pokus spoločnosti Anthropic diktovať vládnu politiku.
27. februára 2026 prezident Trump zverejnil príspevok na Truth Social, v ktorom nariadil všetkým federálnym agentúram, aby okamžite zastavili používanie technológie spoločnosti Anthropic, s šesťmesačným prechodným obdobím. Minister obrany Pete Hegseth oznámil označenie rizika v dodávateľskom reťazci podľa 10 U.S.C. § 3252 — zákona, ktorý sa predtým uplatňoval na zahraničných nepriateľov — a označil spoločnosť Anthropic za potenciálne riziko „sabotáže“ a „podvracania“.
Niekoľko federálnych dodávateľov pozastavilo alebo ukončilo zmluvy so spoločnosťou v nadväznosti na toto označenie. Spoločnosť Anthropic reagovala a 9. marca podala žalobu v Severnom okrese Kalifornie, v ktorej tvrdila, že ide o odvetné opatrenia, porušenie práva na riadny proces a porušenie APA. Súvisiaca žaloba bola podaná na Okresnom súde pre D.C.
V 43-stranovom nariadení sudkyňa Lin zakázala ministerstvu obrany, 17 ďalším federálnym agentúram a ministerke Hegsethovej vykonávať alebo presadzovať akékoľvek sporné opatrenia. Nariadila obnovenie status quo, čím umožnila spoločnosti Anthropic pokračovať v existujúcich federálnych zmluvách a partnerstvách.
Linová napísala, že konanie vlády predstavovalo „klasickú nezákonnú odvetu v rozpore s Prvým dodatkom“. Poznamenala, že načasovanie opatrení spolu s internou komunikáciou vlády odkazujúcou na „rétoriku“, „aroganciu“ a „nátlak“ spoločnosti Anthropic priamo poukazovalo na represívny zámer spojený s verejnými vyhláseniami spoločnosti o bezpečnosti umelej inteligencie.
Pokiaľ ide o riadny proces, súd zistil, že vláda zbavila spoločnosť Anthropic záujmov týkajúcich sa jej reputácie a obchodných činností bez toho, aby jej poskytla predbežné oznámenie alebo vypočutie. Linová tiež zistila, že zákonné označenie nebolo nikdy predtým uplatnené na americkú spoločnosť za týchto okolností a že predchádzajúce vládne preverenie spoločnosti Anthropic.
To zahŕňa bezpečnostné previerky na úrovni „Top Secret“, autorizáciu FedRAMP a zmluvy v hodnote až 200 miliónov dolárov – nepreukázala žiadne skutočné bezpečnostné obavy. „Nič v platnom zákone nepodporuje orwellovskú predstavu, že americká spoločnosť môže byť označená za potenciálneho nepriateľa a sabotéra USA za to, že vyjadrila nesúhlas s vládou,“ napísal Lin.
Súd zistil potenciálnu finančnú ujmu pre spoločnosť Anthropic v hodnote stoviek miliónov až miliárd dolárov, spolu s poškodením reputácie, ktoré peňažná náhrada nedokáže úplne napraviť. Amici briefs od vojenských veliteľov a výskumníkov v oblasti umelej inteligencie uvádzali riziká pre obrannú pripravenosť a širšiu diskusiu o bezpečnosti umelej inteligencie.
Spoločnosť Anthropic uviedla, že je vďačná za rýchlosť súdu a že plánuje naďalej spolupracovať s federálnou vládou. Spoločnosť uviedla, že jej cieľom naďalej zostáva zabezpečiť Američanom prístup k bezpečnej a spoľahlivej umelej inteligencii.
Predbežné opatrenie nerieši základný zmluvný spor. Nebolo vydané žiadne konečné rozhodnutie vo veci samej. Samostatné odvolanie na odvolacom súde v D.C. Circuit zostáva nevyriešené a vláda si zachováva možnosť podať odvolanie.
FAQ 🔎
- Aké rozhodnutie vydal federálny sudca v súvislosti so spoločnosťou Anthropic? Federálna sudkyňa Rita F. Lin vydala 26. marca predbežné predbežné opatrenie, ktorým zabránila Pentagónu a Trumpovej administratíve uplatňovať označenie ohrozujúce národnú bezpečnosť a federálny zákaz voči spoločnosti Anthropic a jej modelom umelej inteligencie Claude.
- Prečo Pentagón označil spoločnosť Anthropic za riziko pre dodávateľský reťazec? Ministerstvo obrany požadovalo neobmedzené používanie umelej inteligencie Claude, vrátane hromadného sledovania a autonómnych zbraní, a označilo spoločnosť Anthropic za riziko pre dodávateľský reťazec po tom, čo spoločnosť odmietla odstrániť tieto bezpečnostné obmedzenia.
- Je predbežné opatrenie v súčasnosti platné? Platnosť predbežného opatrenia je pozastavená na sedem dní od 26. marca, aby mohla vláda podať mimoriadne odvolanie, čo znamená, že nadobudne účinnosť približne 2. apríla 2026.
- Ako bude pokračovať prípad Anthropic vs. Pentagon? Prípad pokračuje vo veci samej, súvisiace konanie zostáva nevyriešené na Okresnom súde pre D.C. a Trumpova administratíva môže požiadať o mimoriadne opatrenie na Deviatom okruhovom súde pred uplynutím odkladu.














