Offerto da
News

I giudici federali respingono la richiesta di provvedimenti provvisori presentata da Anthropic nel caso relativo al divieto dell'IA da parte di Claude Military e fissano le discussioni orali per maggio

L'8 aprile una corte d'appello federale di Washington ha respinto la richiesta di Anthropic di sospendere immediatamente l'inserimento da parte del Pentagono dei suoi modelli di intelligenza artificiale (IA) Claude nella lista nera dei contratti militari statunitensi. Punti chiave:

SCRITTO DA
CONDIVIDI
I giudici federali respingono la richiesta di provvedimenti provvisori presentata da Anthropic nel caso relativo al divieto dell'IA da parte di Claude Military e fissano le discussioni orali per maggio
  • L'8 aprile 2026, la Corte d'Appello del Circuito di Washington ha respinto la richiesta di sospensione d'urgenza presentata da Anthropic, consentendo così il mantenimento in vigore della lista nera del Pentagono relativa all'IA Claude.
  • La designazione del rischio nella catena di approvvigionamento del Pentagono riguarda i principali appaltatori del Dipartimento della Difesa, tra cui Amazon, Microsoft e Palantir.
  • Le discussioni orali accelerate sono fissate per il 19 maggio 2026, una sentenza che potrebbe ridefinire la politica di appalto del governo statunitense in materia di IA.

La Corte d'Appello stabilisce che il Dipartimento della Difesa può mantenere Claude AI nella lista nera durante il contenzioso

La Corte d'Appello degli Stati Uniti per il Circuito di Washington, in un'ordinanza di quattro pagine, ha respinto la mozione d'urgenza presentata dalla società di IA con sede a San Francisco per sospendere la designazione di "rischio per la catena di approvvigionamento" emessa dal Segretario alla Difesa Pete Hegseth. La sentenza consente al Dipartimento della Difesa di continuare a vietare agli appaltatori l'uso di Claude mentre il contenzioso procede. Le discussioni orali sono state anticipate al 19 maggio 2026.

Il collegio giudicante ha riconosciuto che Anthropic "probabilmente subirebbe un danno irreparabile", citando sia danni finanziari che reputazionali. I giudici Gregory Katsas e Neomi Rao, entrambi nominati da Trump, hanno concluso che l'equilibrio degli interessi favoriva il governo, citando la gestione giudiziaria di come il Pentagono si assicura la tecnologia di IA "durante un conflitto militare in corso".

La designazione stessa risale a una rottura delle trattative tra Anthropic e i funzionari del Pentagono alla fine di febbraio 2026. In discussione c'erano due restrizioni nei termini di servizio di Anthropic: un divieto sui sistemi d'arma completamente autonomi, compresi gli sciami di droni armati che operano senza supervisione umana, e un divieto sulla sorveglianza di massa dei cittadini statunitensi.

Emil Michael, sottosegretario alla Ricerca e all'Ingegneria e responsabile tecnologico del Pentagono, ha definito tali restrizioni "ostacoli irrazionali" alla competitività militare, in particolare nei confronti della Cina. I funzionari hanno citato programmi come l'iniziativa di difesa missilistica Golden Dome e la necessità di capacità di risposta rapida contro le minacce ipersoniche.

Anthropic ha offerto eccezioni limitate e valutate caso per caso, ma si è rifiutata di eliminare le misure di sicurezza fondamentali, citando preoccupazioni relative all'affidabilità dell'attuale IA per decisioni autonome ad alto rischio. I colloqui sono falliti. Il presidente Trump ha quindi ordinato a tutte le agenzie federali di smettere di utilizzare la tecnologia di Anthropic, con una fase di dismissione di sei mesi per le implementazioni esistenti.

È seguita la designazione di rischio per la catena di approvvigionamento da parte di Hegseth, un'azione tipicamente applicata a entità straniere come Huawei. L'etichetta ha richiesto agli appaltatori, tra cui Amazon, Microsoft e Palantir, di cessare l'utilizzo di Claude in qualsiasi lavoro legato al Dipartimento della Difesa. Anthropic ha definito la mossa una "campagna di ritorsione illegale" per il suo rifiuto di lasciare che il governo scavalcasse le sue politiche di sicurezza sull'IA.

Anthropic ha intentato cause parallele nel marzo 2026. Una è stata presentata presso la Corte Distrettuale degli Stati Uniti per il Distretto Settentrionale della California; l'altra ha preso di mira la specifica legge sugli appalti che disciplina il rischio della catena di approvvigionamento nel Circuito di Washington D.C. Il 26 marzo, la giudice distrettuale statunitense Rita F. Lin ha concesso ad Anthropic un'ingiunzione preliminare nel caso della California. Ha stabilito che le azioni dell'amministrazione apparivano più punitive che protettive, mancavano di una giustificazione normativa sufficiente e oltrepassavano l'autorità. Tale ordinanza ha temporaneamente sospeso l'applicazione della designazione, consentendo al governo e agli appaltatori di continuare a utilizzare Claude in attesa della conclusione del contenzioso. L'amministrazione Trump ha presentato ricorso presso la Nona Circoscrizione. La decisione dell'8 aprile della Circoscrizione di Washington D.C. è in contrasto con la sentenza della Lin, creando una tensione giuridica sul fatto che la designazione sia attualmente applicabile. I due tribunali stanno esaminando quadri normativi diversi, il che spiega la divergenza procedurale. Anthropic ha dichiarato in un comunicato di rimanere fiduciosa nella propria posizione. "Siamo grati che il tribunale abbia riconosciuto la necessità di risolvere rapidamente queste questioni e restiamo fiduciosi che i tribunali alla fine concorderanno sul fatto che queste designazioni della catena di approvvigionamento fossero illegali", ha affermato l'azienda.

Anteprima di Claude Mythos: l'IA inedita di Anthropic ha individuato bug in Linux e OpenBSD che erano sfuggiti agli esseri umani per decenni

Anteprima di Claude Mythos: l'IA inedita di Anthropic ha individuato bug in Linux e OpenBSD che erano sfuggiti agli esseri umani per decenni

L'IA Claude Mythos di Anthropic ha individuato migliaia di vulnerabilità zero-day in tutti i principali sistemi operativi e browser. Il progetto Glasswing prende il via con 100 milioni di dollari in crediti. read more.

Leggi ora

Gli osservatori del settore hanno segnalato il caso come un segnale di allarme per lo sviluppo dell'IA negli Stati Uniti. Matt Schruers, CEO della Computer and Communications Industry Association, ha affermato che le azioni del Pentagono e la sentenza della Corte d'Appello del Distretto di Columbia "creano una sostanziale incertezza commerciale in un momento in cui le aziende statunitensi sono in competizione con le controparti globali per la leadership nell'IA".

Il caso procede ora verso l'udienza accelerata del 19 maggio presso la Corte d'Appello del Circuito di Washington, con il ricorso alla Nona Circoscrizione ancora in sospeso. L'esito definirà probabilmente i limiti del potere federale di designare le aziende nazionali di IA come rischi per la sicurezza nazionale e determinerà fino a che punto il governo possa spingersi nel fare pressione sulle aziende private affinché modifichino le loro politiche di sicurezza in materia di IA.