Offerto da
Technology

Anthropic e il Pentagono in conflitto sull'uso militare e di sorveglianza di massa di Claude

Il Pentagono sta valutando la possibilità di interrompere i rapporti con Anthropic, con il segretario alla Difesa Pete Hegseth pronto a designare l'azienda come "rischio per la catena di approvvigionamento". Anthropic si oppone all'uso del suo modello di intelligenza artificiale Claude in campagne di sorveglianza di massa e operazioni militari completamente autonome.

CONDIVIDI
Anthropic e il Pentagono in conflitto sull'uso militare e di sorveglianza di massa di Claude

Anthropic si scontra con il Pentagono sull'uso "non etico" di Claude

Anthropic, una delle più grandi aziende di intelligenza artificiale (AI), sarebbe sotto tiro da parte del Dipartimento della Guerra per l'utilizzo dei suoi modelli di IA in attività considerate non etiche dall'azienda.

Axios ha riferito che il segretario alla Difesa Pete Hegseth sta valutando la possibilità di designare Anthropic come un rischio per la catena di approvvigionamento, il che significa che tutti i contratti e i legami con l'azienda dovrebbero essere interrotti. Inoltre, tutte le aziende che trattano con il Pentagono dovrebbero abbandonare i servizi di Anthropic.

Anthropic and the Pentagon Clash Over Claude’s Military and Mass‑Surveillance Uses

Lo scontro è scoppiato quando l'azienda ha rifiutato di consentire l'uso di Claude, il suo modello di punta, in campagne di sorveglianza di massa e operazioni che coinvolgono attrezzature militari completamente autonome. D'altra parte, il Pentagono sostiene che dovrebbe essere in grado di sfruttare le capacità di Claude per "tutti gli scopi legittimi", senza che l'azienda abbia voce in capitolo in questi processi.

Se Anthropic venisse finalmente designata come un rischio per la catena di approvvigionamento, ciò significherebbe che il modello dovrebbe essere ritirato dai sistemi informativi del Pentagono, poiché solo Claude ha accesso ai sistemi classificati dell'organizzazione.

Ciò ha permesso a Claude di partecipare attivamente all'operazione Absolute Resolve, che ha portato all'estrazione di Nicolas Maduro dal Venezuela nel mese di gennaio. Anche se il ruolo assunto dal modello durante l'operazione non è stato completamente rivelato, esso rappresenta un'escalation nell'uso dell'IA per le campagne militari.

Lo stallo potrebbe costituire un precedente nel modo in cui le aziende di IA possono trattare con i governi del mondo occidentale, gettando le basi per i livelli di controllo che queste aziende potrebbero mantenere sui loro modelli quando utilizzati per scopi militari. Un portavoce di Anthropic ha dichiarato che l'azienda stava avendo "conversazioni produttive, in buona fede, con il Dipartimento della Difesa su come continuare quel lavoro e risolvere queste nuove e complesse questioni".

FAQ

  • Quali sono le questioni che Anthropic sta affrontando con il Dipartimento della Guerra? Anthropic è sotto esame da parte del Dipartimento della Guerra per aver rifiutato di consentire che il suo modello di IA, Claude, venga utilizzato per attività che ritiene non etiche, come la sorveglianza di massa e le operazioni militari autonome.
  • Quali potenziali conseguenze potrebbe affrontare Anthropic se classificata come rischio per la catena di approvvigionamento? Se designata come rischio per la catena di approvvigionamento, tutti i contratti con il Pentagono verrebbero interrotti, rendendo necessario il ritiro di Claude dai sistemi informativi del Pentagono.
  • Come ha risposto Anthropic alle richieste del Pentagono riguardo al suo modello di IA? L'azienda sostiene di essere impegnata in "conversazioni produttive" con il Dipartimento della Guerra, con l'obiettivo di affrontare le complesse questioni etiche relative all'uso della sua tecnologia di IA.
  • Quale recente operazione militare ha coinvolto Claude e qual è stata la sua importanza? Claude ha partecipato all'operazione Absolute Resolve, che ha facilitato l'estrazione di Nicolás Maduro dal Venezuela, segnando una significativa escalation nell'uso delle tecnologie di IA da parte dell'esercito.