Oferit de
News

Judecătorii federali resping cererea de măsuri provizorii formulată de Anthropic în cazul interdicției impuse de Claude Military asupra IA și stabilesc pentru luna mai termenul pentru dezbaterile orale

O curte federală de apel din Washington a respins, pe 8 aprilie, cererea companiei Anthropic de a suspenda imediat decizia Pentagonului de a include modelele sale de inteligență artificială (IA) „Claude” pe lista neagră a contractelor militare americane.

SCRIS DE
DISTRIBUIE
Judecătorii federali resping cererea de măsuri provizorii formulată de Anthropic în cazul interdicției impuse de Claude Military asupra IA și stabilesc pentru luna mai termenul pentru dezbaterile orale

Puncte cheie:

  • Curtea de Apel din Washington a respins cererea de suspendare de urgență a Anthropic pe 8 aprilie 2026, permițând ca lista neagră a Pentagonului privind IA Claude să rămână în vigoare.
  • Desemnarea de risc a lanțului de aprovizionare al Pentagonului afectează principalii contractori ai Departamentului Apărării, inclusiv Amazon, Microsoft și Palantir.
  • Pledoariile orale accelerate sunt programate pentru 19 mai 2026, o hotărâre care ar putea remodela politica de achiziții a guvernului SUA în domeniul IA.

Curtea de Apel decide că Departamentul Apărării poate menține Claude AI pe lista neagră pe durata litigiului

Curtea de Apel a SUA pentru Circuitul D.C., într-o hotărâre de patru pagini, a respins cererea de urgență a companiei de IA cu sediul în San Francisco de a suspenda desemnarea de „risc pentru lanțul de aprovizionare” emisă de secretarul apărării Pete Hegseth. Hotărârea permite Departamentului Apărării să continue să interzică contractorilor utilizarea Claude pe durata litigiului. Pledoariile orale au fost accelerate pentru 19 mai 2026.

Comisia a recunoscut că Anthropic ar „suferi probabil un anumit grad de prejudiciu ireparabil”, invocând atât prejudiciul financiar, cât și cel de reputație. Judecătorii Gregory Katsas și Neomi Rao, ambii numiți de Trump, au concluzionat că echilibrul echității favorizează guvernul, invocând gestionarea judiciară a modului în care Pentagonul asigură tehnologia de IA „în timpul unui conflict militar activ”.

Desemnarea în sine se trage dintr-o ruptură a negocierilor dintre Anthropic și oficialii Pentagonului la sfârșitul lunii februarie 2026. În discuție erau două restricții din termenii de utilizare ai Anthropic: o interdicție privind sistemele de arme complet autonome, inclusiv roiurile de drone înarmate care operează fără supraveghere umană, și o interdicție privind supravegherea în masă a cetățenilor SUA.

Emil Michael, subsecretar pentru cercetare și inginerie și directorul tehnologic al Pentagonului, a numit aceste restricții „obstacole iraționale” în calea competitivității militare, în special împotriva Chinei. Oficialii au invocat programe precum inițiativa de apărare antirachetă Golden Dome și necesitatea unor capacități de răspuns rapid împotriva amenințărilor hipersonice.

Anthropic a oferit excepții limitate, de la caz la caz, dar a refuzat să elimine măsurile de siguranță de bază, invocând preocupări legate de fiabilitatea IA actuale pentru decizii autonome cu miză mare. Discuțiile au eșuat. Președintele Trump a ordonat apoi tuturor agențiilor federale să înceteze utilizarea tehnologiei Anthropic, cu o eliminare treptată pe o perioadă de șase luni a implementărilor existente.

A urmat desemnarea de risc pentru lanțul de aprovizionare a lui Hegseth, o măsură aplicată de obicei entităților străine, precum Huawei. Eticheta a obligat contractanții, inclusiv Amazon, Microsoft și Palantir, să înceteze utilizarea lui Claude în orice activitate legată de Departamentul Apărării. Anthropic a calificat această mișcare drept o „campanie ilegală de represalii” pentru refuzul său de a permite guvernului să treacă peste politicile sale de siguranță privind IA.

Anthropic a intentat procese paralele în martie 2026. Unul a fost intentat la Curtea Districtuală a SUA pentru Districtul de Nord al Californiei; celălalt viza statutul specific de achiziții care reglementează riscul lanțului de aprovizionare în Circuitul D.C.

Pe 26 martie, judecătoarea districtuală americană Rita F. Lin a acordat Anthropic o măsură provizorie în cazul din California. Ea a hotărât că acțiunile administrației păreau mai mult punitive decât protectoare, nu aveau o justificare legală suficientă și depășeau autoritatea. Această ordonanță a suspendat temporar aplicarea desemnării, permițând guvernului și contractorilor să continue utilizarea lui Claude până la soluționarea completă a litigiului. Administrația Trump a făcut apel la Curtea de Apel a celui de-al nouălea circuit.

Decizia Curții de Apel din Districtul Columbia din 8 aprilie contrazice hotărârea judecătoarei Lin, creând o tensiune juridică cu privire la faptul dacă desemnarea este în prezent aplicabilă. Cele două instanțe analizează cadre legislative diferite, ceea ce explică divergența procedurală.
Anthropic a declarat într-un comunicat că rămâne încrezătoare în poziția sa. „Suntem recunoscători că instanța a recunoscut că aceste probleme trebuie rezolvate rapid și rămânem încrezători că instanțele vor conveni în cele din urmă că aceste desemnări din lanțul de aprovizionare au fost ilegale”, a afirmat compania.

Prezentare Claude Mythos: IA nepublicată a companiei Anthropic a descoperit vulnerabilități în Linux și OpenBSD pe care oamenii le-au trecut cu vederea timp de zeci de ani

Prezentare Claude Mythos: IA nepublicată a companiei Anthropic a descoperit vulnerabilități în Linux și OpenBSD pe care oamenii le-au trecut cu vederea timp de zeci de ani

IA „Claude Mythos” de la Anthropic a identificat mii de vulnerabilități de tip zero-day în toate sistemele de operare și browserele importante. Proiectul Glasswing se lansează cu credite în valoare de 100 de milioane de dolari. read more.

Citește acum

Observatorii din industrie au semnalat cazul ca un semn de avertisment pentru dezvoltarea IA în SUA. Matt Schruers, CEO al Asociației Industriei de Calculatoare și Comunicații, a declarat că acțiunile Pentagonului și hotărârea Curții de Apel din Districtul Columbia „creează o incertitudine comercială substanțială într-un moment în care companiile americane concurează cu omologii lor globali pentru a deveni lideri în domeniul IA”.

Cazul se îndreaptă acum către dezbaterea orală accelerată din 19 mai la Curtea de Apel din Washington, apelul la Curtea de Apel a Nouălea Circuit fiind încă în curs. Rezultatul va defini probabil limitele puterii federale de a desemna firmele naționale de IA ca riscuri pentru securitatea națională și va determina până unde poate merge guvernul în a exercita presiuni asupra companiilor private pentru a-și modifica politicile de siguranță în domeniul IA.