Offerto da
News

OpenAI è oggetto di critiche dopo l'accordo con il Pentagono sull'intelligenza artificiale, mentre negli Stati Uniti si registra un'impennata delle disinstallazioni di ChatGPT

L'avanzata di OpenAI nelle reti militari riservate degli Stati Uniti si è scontrata con una reazione negativa da parte dei consumatori e con un cambiamento di rotta più discreto ma significativo a livello infrastrutturale, mettendo in evidenza il difficile equilibrio che il gigante dell'intelligenza artificiale (IA) sta ora cercando di mantenere tra le ambizioni di sicurezza nazionale e la fiducia degli utenti.

SCRITTO DA
CONDIVIDI
OpenAI è oggetto di critiche dopo l'accordo con il Pentagono sull'intelligenza artificiale, mentre negli Stati Uniti si registra un'impennata delle disinstallazioni di ChatGPT

Il movimento #QuitGPT cresce mentre OpenAI rivede il contratto sull'IA con il Dipartimento della Difesa a seguito delle polemiche dei consumatori

La polemica è scoppiata intorno al 28 febbraio, quando OpenAI ha confermato un accordo con il Dipartimento della Difesa degli Stati Uniti per implementare sistemi avanzati di IA, inclusa la tecnologia ChatGPT, su reti riservate. L'azienda ha presentato l'accordo come legale e strettamente controllato, ma i critici hanno visto qualcosa di completamente diverso: una piattaforma di IA rivolta ai consumatori che si addentra sempre più nelle operazioni militari in un momento in cui l'attenzione pubblica sull'intelligenza artificiale è già molto accesa.

OpenAI ha affermato che l'accordo include misure di salvaguardia esplicite, tra cui il divieto di sorveglianza di massa sul territorio nazionale nei confronti di cittadini statunitensi, il controllo delle armi autonome e dei sistemi di decisione automatizzata ad alto rischio. Ha inoltre sottolineato i vincoli tecnici, tra cui l'implementazione esclusivamente su cloud e il mantenimento del controllo sui sistemi di sicurezza, oltre alla conformità ai quadri giuridici statunitensi quali il Quarto Emendamento e le norme del Dipartimento della Difesa che regolano la supervisione umana dell'uso della forza letale.

Tuttavia, l'effetto ottico non è stato esattamente sottile. A poche ore dall'annuncio, una campagna di boicottaggio dal basso sotto lo slogan #QuitGPT ha iniziato a circolare sui social media, esortando gli utenti a cancellare gli abbonamenti, eliminare l'app e migrare verso i concorrenti. Il contraccolpo misurabile si è tradotto in cambiamenti considerevoli nel comportamento dell'app.

OpenAI Faces Backlash After Pentagon AI Deal as ChatGPT Uninstalls Spike in US
Schermata dal sito web Quitgpt.org

Secondo i dati di analisi delle app, il 28 febbraio i tassi di disinstallazione di ChatGPT negli Stati Uniti sono aumentati del 295% rispetto al giorno precedente, mentre i download sono scesi del 13% il giorno successivo e di un altro 5% in seguito. Il sentiment degli utenti ha subito una svolta ancora più netta nelle recensioni delle app, dove le valutazioni a una stella sono aumentate del 775% in un solo giorno e hanno continuato a salire, mentre le recensioni a cinque stelle sono diminuite di circa la metà. I concorrenti hanno approfittato del momento. L'app Claude di Anthropic ha registrato un aumento dei download compreso tra il 37% e il 51% nello stesso periodo, superando brevemente ChatGPT nelle classifiche dell'App Store statunitense mentre gli utenti cercavano alternative. Gli organizzatori del boicottaggio hanno dichiarato che la campagna ha generato milioni di azioni, tra cui cancellazioni e impegni, anche se le cifre esatte variano a seconda della fonte e di come viene definita la partecipazione.

OpenAI ha agito rapidamente per contenere le ripercussioni. L'amministratore delegato Sam Altman ha riconosciuto le carenze nel modo in cui l'accordo è stato comunicato, definendo il lancio "opportunistico e approssimativo", e nel giro di pochi giorni l'azienda ha rivisto il testo dell'accordo. I termini aggiornati vietavano esplicitamente la sorveglianza interna intenzionale tramite sistemi di IA e aggiungevano requisiti più rigorosi per qualsiasi coinvolgimento delle agenzie di intelligence, inclusi livelli contrattuali separati. L'azienda ha inoltre annunciato piani di coordinamento con altri sviluppatori di IA su quadri di sicurezza condivisi, presentando le modifiche come un inasprimento piuttosto che come un passo indietro. Sebbene le reazioni negative si siano in parte placate dopo le revisioni, l'episodio ha lasciato il segno, evidenziando quanto rapidamente possa cambiare l'opinione dei consumatori quando l'IA entra in territori sensibili. Allo stesso tempo, OpenAI stava compiendo mosse meno visibili ma strategicamente significative dietro le quinte.

All'inizio di marzo, l'azienda ha riorganizzato le proprie operazioni di calcolo e infrastruttura, suddividendo le responsabilità in tre gruppi specializzati che coprono la progettazione dei data center, le partnership commerciali e la gestione delle strutture sul campo. La ristrutturazione riflette un cambiamento più ampio nel modo in cui OpenAI intende scalare la propria potenza di calcolo.

Piuttosto che costruire e possedere in modo aggressivo enormi data center legati alla sua ambiziosa iniziativa "Stargate", l'azienda sta puntando maggiormente sul leasing e sulle partnership con i fornitori di servizi cloud. Azure di Microsoft rimane centrale in questa strategia, mentre OpenAI ha anche ampliato i rapporti con Oracle e Amazon Web Services nell'ambito di accordi pluriennali di capacità.

I piani precedenti che prevedevano progetti infrastrutturali su larga scala di proprietà congiunta sono stati ridimensionati o rielaborati, poiché le realtà finanziarie e logistiche della costruzione di capacità di supercalcolo AI su larga scala diventano sempre più difficili da ignorare. OpenAI si sta invece concentrando sul controllo di elementi chiave come hardware e chip personalizzati, affidando in outsourcing il livello dell’infrastruttura fisica a hyperscaler affermati.

Il Codex Security di OpenAI debutta mentre si infiamma la corsa alla sicurezza informatica basata sull'intelligenza artificiale con Anthropic

Il Codex Security di OpenAI debutta mentre si infiamma la corsa alla sicurezza informatica basata sull'intelligenza artificiale con Anthropic

OpenAI ha lanciato Codex Security il 6 marzo, introducendo un agente di sicurezza delle applicazioni basato sull'intelligenza artificiale (AI). read more.

Leggi ora

I due sviluppi — uno pubblico e controverso, l'altro operativo e pragmatico — non sono direttamente collegati, ma insieme delineano un'azienda che si muove rapidamente su più fronti, a volte più velocemente di quanto la sua comunicazione riesca a stare al passo. Per OpenAI, la sfida ora non riguarda tanto la capacità di costruire sistemi potenti, quanto piuttosto il modo in cui gestisce le conseguenze della loro implementazione in contesti in cui la posta in gioco è tutt'altro che teorica.

FAQ 🔎

  • Perché gli utenti hanno boicottato ChatGPT negli Stati Uniti? Gli utenti hanno reagito all'accordo di OpenAI di implementare l'IA su reti militari classificate, sollevando preoccupazioni etiche riguardo alla sorveglianza e all'uso a fini di difesa.
  • L'utilizzo di ChatGPT è diminuito dopo la controversia? Sì, i tassi di disinstallazione hanno registrato un picco e i download sono diminuiti temporaneamente, mentre le recensioni negative dell'app sono aumentate notevolmente.
  • Quali modifiche ha apportato OpenAI al suo accordo con il Pentagono? L'azienda ha aggiunto divieti espliciti sulla sorveglianza interna e regole più severe per il coinvolgimento delle agenzie di intelligence.
  • Perché OpenAI sta passando a partner di infrastrutture cloud? L'aumento dei costi e le sfide legate alla scalabilità stanno spingendo l'azienda a noleggiare potenza di calcolo invece di costruire enormi data center.