Poháňa
News

Federálni sudcovia zamietli žiadosť spoločnosti Anthropic o predbežné opatrenie v súvislosti so zákazom vojenskej umelej inteligencie v prípade Claude a stanovili termín ústneho pojednávania na máj

Federálny odvolací súd vo Washingtone 8. apríla zamietol žiadosť spoločnosti Anthropic o okamžité pozastavenie rozhodnutia Pentagónu o zaradení jej modelov umelej inteligencie (AI) Claude na čiernu listinu v rámci zmlúv s americkou armádou.

NAPÍSAL
ZDIEĽAŤ
Federálni sudcovia zamietli žiadosť spoločnosti Anthropic o predbežné opatrenie v súvislosti so zákazom vojenskej umelej inteligencie v prípade Claude a stanovili termín ústneho pojednávania na máj

Kľúčové body:

  • Okresný súd v D.C. 8. apríla 2026 zamietol žiadosť spoločnosti Anthropic o nariadenie predbežného opatrenia, čím umožnil, aby čierny zoznam Pentagónu týkajúci sa AI Claude zostal v platnosti.
  • Označenie rizika v dodávateľskom reťazci Pentagónu ovplyvňuje hlavných dodávateľov ministerstva obrany, vrátane spoločností Amazon, Microsoft a Palantir.
  • Urýchlené ústne pojednávanie je naplánované na 19. mája 2026, pričom rozhodnutie by mohlo zmeniť politiku americkej vlády v oblasti obstarávania AI.

Odvolací súd rozhodol, že ministerstvo obrany môže počas súdneho konania ponechať Claude AI na čiernej listine

Odvolací súd USA pre obvod D.C. v štvorstranovom uznesení zamietol núdzový návrh spoločnosti zaoberajúcej sa umelou inteligenciou so sídlom v San Franciscu na pozastavenie označenia „riziko dodávateľského reťazca“, ktoré vydal minister obrany Pete Hegseth. Rozhodnutie umožňuje Ministerstvu obrany naďalej zakazovať dodávateľom používanie Claude počas prebiehajúceho súdneho sporu. Ústne pojednávanie bolo urýchlene presunuté na 19. mája 2026.

Senát uznal, že spoločnosť Anthropic by „pravdepodobne utrpela určitú mieru nenapraviteľnej ujmy“, pričom poukázal na finančné škody aj poškodenie reputácie. Sudcovia Gregory Katsas a Neomi Rao, obaja menovaní Trumpom, dospeli k záveru, že rovnováha záujmov je v prospech vlády, pričom poukázali na súdne riadenie toho, ako Pentagón zabezpečuje technológiu umelej inteligencie „počas aktívneho vojenského konfliktu“.

Samotné označenie sa datuje k zlyhaniu rokovaní medzi spoločnosťou Anthropic a predstaviteľmi Pentagónu koncom februára 2026. Predmetom sporu boli dve obmedzenia v podmienkach používania spoločnosti Anthropic: zákaz plne autonómnych zbraňových systémov, vrátane ozbrojených rojov dronov operujúcich bez ľudského dohľadu, a zákaz hromadného sledovania občanov USA.

Emil Michael, podtajomník pre výskum a inžinierstvo a hlavný technický riaditeľ Pentagónu, označil tieto obmedzenia za „iracionálne prekážky“ vojenskej konkurencieschopnosti, najmä voči Číne. Úradníci uvádzali programy, ako je iniciatíva protiraketovej obrany Golden Dome, a potrebu schopností rýchlej reakcie na hypersonické hrozby.

Spoločnosť Anthropic ponúkla obmedzené výnimky posudzované individuálne, odmietla však odstrániť základné bezpečnostné zábrany, pričom poukázala na obavy týkajúce sa spoľahlivosti súčasnej umelej inteligencie pri autonómnych rozhodnutiach s vysokou mierou rizika. Rokovania zlyhali. Prezident Trump následne nariadil všetkým federálnym agentúram, aby prestali používať technológiu spoločnosti Anthropic, pričom existujúce nasadenia mali byť postupne ukončené v priebehu šiestich mesiacov.

Nasledovalo označenie Hegsetha za riziko pre dodávateľský reťazec, čo je opatrenie, ktoré sa zvyčajne uplatňuje na zahraničné subjekty, ako je Huawei. Toto označenie vyžadovalo, aby dodávatelia, vrátane Amazonu, Microsoftu a Palantiru, prestali používať Clauda v akejkoľvek práci súvisiacej s ministerstvom obrany. Spoločnosť Anthropic označila tento krok za „nezákonnú odvetnú kampaň“ za jej odmietnutie nechať vládu obísť jej bezpečnostné zásady týkajúce sa umelej inteligencie.

Spoločnosť Anthropic podala v marci 2026 dve paralelné žaloby. Jedna bola podaná na federálnom súde pre severný obvod Kalifornie; druhá sa zameriavala na konkrétny zákon o verejnom obstarávaní, ktorý upravuje riziko dodávateľského reťazca v obvode D.C.

26. marca federálna sudkyňa Rita F. Lin udelila spoločnosti Anthropic predbežné opatrenie v kalifornskom prípade. Rozhodla, že kroky vlády pôsobili skôr represívne ako ochranné, nemali dostatočné zákonné odôvodnenie a prekročili jej právomoci. Týmto nariadením dočasne zrušila vynútiteľnosť tohto označenia, čím umožnila vláde a dodávateľom pokračovať v používaní Clauda až do úplného vyriešenia sporu. Trumpova administratíva sa odvolala na deviaty obvodný súd.
Rozhodnutie obvodného súdu pre hlavné mesto Washington z 8. apríla je v rozpore s rozhodnutím sudkyne Lin, čo vytvára právne napätie ohľadom toho, či je toto označenie v súčasnosti vynútiteľné. Oba súdy posudzujú odlišné zákonné rámce, čo vysvetľuje rozdiely v konaní.
Spoločnosť Anthropic vo svojom vyhlásení uviedla, že naďalej verí vo svoju pozíciu. „Sme vďační, že súd uznal, že tieto otázky je potrebné rýchlo vyriešiť, a naďalej veríme, že súdy nakoniec uznajú, že tieto označenia v dodávateľskom reťazci boli nezákonné,“ uviedla spoločnosť.

Ukážka hry Claude Mythos: Nevydaná umelá inteligencia spoločnosti Anthropic odhalila chyby v systémoch Linux a OpenBSD, ktoré ľuďom unikali celé desaťročia

Ukážka hry Claude Mythos: Nevydaná umelá inteligencia spoločnosti Anthropic odhalila chyby v systémoch Linux a OpenBSD, ktoré ľuďom unikali celé desaťročia

Umelá inteligencia Claude Mythos od spoločnosti Anthropic odhalila tisíce zraniteľností typu zero-day vo všetkých hlavných operačných systémoch a prehliadačoch. Projekt Glasswing štartuje s kreditmi v hodnote 100 miliónov dolárov. read more.

Čítať teraz

Odborní pozorovatelia označili tento prípad za varovný signál pre rozvoj umelej inteligencie v USA. Matt Schruers, generálny riaditeľ Asociácie počítačového a komunikačného priemyslu, uviedol, že kroky Pentagónu a rozhodnutie Okresného súdu pre D.C. „vytvárajú značnú obchodnú neistotu v čase, keď americké spoločnosti súťažia so svojimi globálnymi partnermi o vedúcu pozíciu v oblasti umelej inteligencie.“

Prípad sa teraz posúva k urýchlenému ústnemu pojednávaniu 19. mája na odvolacom súde v D.C., pričom odvolanie na deviatom odvolacom súde stále čaká na rozhodnutie. Výsledok pravdepodobne definuje hranice federálnej moci pri označovaní domácich firiem zaoberajúcich sa umelou inteligenciou za riziká pre národnú bezpečnosť a určí, do akej miery môže vláda tlačiť na súkromné spoločnosti, aby zmenili svoje bezpečnostné politiky v oblasti umelej inteligencie.