Offerto da
News

Un giudice federale impedisce al Pentagono di definire Anthropic una minaccia alla sicurezza nazionale

La scorsa settimana, un giudice federale di San Francisco ha impedito al Pentagono e all’amministrazione Trump di applicare una designazione di sicurezza nazionale nei confronti di Anthropic, l’azienda specializzata in intelligenza artificiale (IA) che si è rifiutata di rimuovere le restrizioni di sicurezza dai propri modelli Claude.

SCRITTO DA
CONDIVIDI
Un giudice federale impedisce al Pentagono di definire Anthropic una minaccia alla sicurezza nazionale

Il tribunale blocca il divieto dell'amministrazione Trump sull'IA Claude di Anthropic per le agenzie federali

Il 26 marzo, il giudice distrettuale statunitense Rita F. Lin ha emesso un'ingiunzione preliminare, ritenendo che le azioni del governo contro Anthropic violassero probabilmente il Primo Emendamento, negassero alla società il giusto processo e eccedessero l'autorità statutaria ai sensi dell'Administrative Procedure Act. La sentenza è sospesa per sette giorni, dando all'amministrazione tempo fino al 2 aprile circa per presentare un ricorso d'urgenza presso la Nona Circoscrizione.

La controversia è iniziata quando il Dipartimento della Difesa (DoD) ha chiesto l'accesso illimitato a Claude per uso federale. Anthropic aveva da tempo mantenuto due eccezioni nella sua politica di utilizzo accettabile: Claude non sarebbe stato utilizzato per la sorveglianza di massa dei cittadini americani né per sistemi d'arma autonomi letali operanti senza un significativo controllo umano. Il DoD ha chiesto che tali limitazioni fossero rimosse. Anthropic ha rifiutato. I negoziati si sono interrotti alla fine del 2025. Il conflitto è diventato di dominio pubblico attraverso le dichiarazioni scritte del CEO Dario Amodei e un saggio che illustrava la posizione dell'azienda sulla sicurezza dell'IA. I funzionari del DoD hanno interpretato le restrizioni come un tentativo di Anthropic di dettare la politica governativa. Il 27 febbraio 2026, il presidente Trump ha pubblicato un post su Truth Social, ordinando a tutte le agenzie federali di interrompere immediatamente l'uso della tecnologia di Anthropic, con un periodo di transizione di sei mesi. Il segretario alla Difesa Pete Hegseth ha annunciato una designazione di rischio per la catena di approvvigionamento ai sensi dell'articolo 10 U.S.C. § 3252 — una legge precedentemente applicata agli avversari stranieri — etichettando Anthropic come un potenziale rischio di "sabotaggio" e "sovversione".

A seguito di tale designazione, diversi appaltatori federali hanno sospeso o risolto i contratti con l'azienda. Anthropic ha reagito presentando ricorso il 9 marzo presso il Distretto Settentrionale della California, denunciando ritorsioni, violazioni del giusto processo e violazioni dell'APA. Un'azione correlata è stata intentata presso la Corte d'Appello del Distretto di Columbia.

In un'ordinanza di 43 pagine, la giudice Lin ha ingiunto al Dipartimento della Difesa, ad altre 17 agenzie federali e al Segretario Hegseth di non attuare o far rispettare alcuna delle azioni contestate. Ha ordinato il ripristino dello status quo, consentendo ad Anthropic di portare avanti i contratti e le partnership federali esistenti.

Lin ha scritto che la condotta del governo rappresentava una "classica ritorsione illegale ai sensi del Primo Emendamento". Ha osservato che la tempistica delle azioni, insieme alle comunicazioni interne del governo che facevano riferimento alla "retorica", all'"arroganza" e alle "pressioni" di Anthropic, indicava chiaramente un intento punitivo legato alle dichiarazioni pubbliche dell'azienda sulla sicurezza dell'IA.

Per quanto riguarda il giusto processo, la corte ha ritenuto che il governo abbia privato Anthropic dei suoi interessi di libertà relativi alla reputazione e alle operazioni commerciali senza fornire un preavviso di privazione o un'udienza. Lin ha inoltre ritenuto che la designazione statutaria non fosse mai stata applicata prima a un'azienda americana in queste circostanze e che la precedente verifica governativa su Anthropic

Ciò include autorizzazioni Top Secret, l'autorizzazione FedRAMP e contratti del valore fino a 200 milioni di dollari — non aveva evidenziato alcuna reale preoccupazione in materia di sicurezza. "Nulla nella legge vigente sostiene la nozione orwelliana secondo cui un'azienda americana possa essere bollata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso disaccordo con il governo", ha scritto Lin.

Il tribunale ha riscontrato un potenziale danno finanziario per Anthropic compreso tra centinaia di milioni e miliardi di dollari, oltre a un danno reputazionale che il risarcimento monetario non potrebbe riparare completamente. Le memorie degli amici della corte presentate da leader militari e ricercatori di IA hanno citato i rischi per la prontezza della difesa e il più ampio dibattito sulla sicurezza dell'IA.

Anthropic ha dichiarato di essere grata per la rapidità del tribunale e di voler continuare a collaborare con il governo federale. L'azienda ha affermato che il suo obiettivo rimane quello di garantire agli americani l'accesso a un'IA sicura e affidabile. L'ingiunzione non risolve la controversia contrattuale sottostante. Non è stata emessa alcuna decisione definitiva nel merito. Un ricorso separato presso la Corte d'Appello del Distretto di Columbia rimane pendente e l'amministrazione si riserva la possibilità di presentare appello.

Domande frequenti 🔎

  • Cosa ha stabilito il giudice federale riguardo ad Anthropic? Il 26 marzo, il giudice distrettuale degli Stati Uniti Rita F. Lin ha emesso un'ingiunzione preliminare, impedendo al Pentagono e all'amministrazione Trump di applicare una designazione di sicurezza nazionale e un divieto federale nei confronti di Anthropic e dei suoi modelli di IA Claude.
  • Perché il Pentagono ha designato Anthropic come un rischio per la catena di approvvigionamento? Il Dipartimento della Difesa ha cercato di ottenere l'uso illimitato dell'IA Claude, anche per la sorveglianza di massa e le armi autonome, e ha etichettato Anthropic come un rischio per la catena di approvvigionamento dopo che l'azienda si è rifiutata di rimuovere tali restrizioni di sicurezza.
  • L'ingiunzione è attualmente in vigore? L'ingiunzione è sospesa per sette giorni a partire dal 26 marzo per consentire al governo di presentare un ricorso d'urgenza, il che significa che non entrerà in vigore fino al 2 aprile 2026 circa.
  • Cosa succederà ora nel caso Anthropic contro Pentagono? Il caso prosegue nel merito, un'azione correlata rimane pendente presso la Corte d'Appello del Distretto di Columbia e l'amministrazione Trump potrebbe chiedere un provvedimento d'urgenza alla Nona Corte d'Appello prima della scadenza della sospensione.