Offerto da
News

Dai chip da mille miliardi di dollari alle sollecitazioni sulla rete elettrica: ecco cosa è successo in questa settimana frenetica per l'IA

Questa settimana il settore dell'intelligenza artificiale (IA) è stato scosso da una potenziale controversia legale tra Microsoft e OpenAI riguardante una partnership nel cloud con Amazon del valore di 50 miliardi di dollari, dall'annuncio da parte di Nvidia di ordini di chip per un valore di 1.000 miliardi di dollari in occasione della conferenza per sviluppatori GTC e da nuovi avvertimenti delle autorità federali secondo cui la crescente domanda dei data center dedicati all'IA sta destabilizzando la rete elettrica degli Stati Uniti.

SCRITTO DA
CONDIVIDI
Dai chip da mille miliardi di dollari alle sollecitazioni sulla rete elettrica: ecco cosa è successo in questa settimana frenetica per l'IA

Microsoft valuta un'azione legale

Secondo quanto riferito, Microsoft Corp. starebbe valutando un'azione legale contro OpenAI e Amazon dopo che OpenAI ha designato Amazon Web Services come host cloud di terze parti esclusivo per la sua nuova piattaforma AI aziendale, Frontier — una mossa che Microsoft sostiene violi una disposizione chiave del loro accordo di partnership che richiede che le chiamate API del modello di OpenAI passino attraverso Microsoft Azure.

Una persona vicina alla posizione di Microsoft ha dichiarato al Financial Times che l’azienda intende far rispettare il contratto in caso di violazione. OpenAI, che nel 2025 si è ristrutturata come società di utilità pubblica, sostiene che l’accordo con AWS rientri nei limiti contrattuali. La controversia arriva mentre, secondo quanto riferito, OpenAI si prepara a una potenziale offerta pubblica iniziale nel 2026 con una valutazione stimata di 1.000 miliardi di dollari.

Nvidia svela ordini di chip per 1.000 miliardi di dollari

In occasione della conferenza annuale degli sviluppatori GTC a San Jose, in California, il CEO di Nvidia Jensen Huang ha rivelato che gli ordini di acquisto per i chip Blackwell e Vera Rubin dell'azienda ammontano ora a 1.000 miliardi di dollari fino al 2027, il doppio della proiezione di 500 miliardi di dollari riportata l'anno precedente. La conferenza ha anche svelato l'unità di elaborazione del linguaggio Groq 3 — proveniente dalla startup acquisita da Nvidia a dicembre per circa 20 miliardi di dollari — integrata in un rack da 256 unità progettato per accelerare i carichi di lavoro di inferenza AI.

Nvidia ha presentato in anteprima la sua architettura Kyber per il sistema Vera Rubin Ultra del 2027, dotato di 144 GPU in vassoi di calcolo verticali, e ha lanciato Dynamo 1.0, un livello di orchestrazione software per le fabbriche di IA. Il keynote si è concluso con una dimostrazione dal vivo di un personaggio animato alimentato dall'IA che camminava sul palco.

Nuove versioni di OpenAI e Mistral

La settimana ha portato anche un'ondata di rilasci di modelli competitivi. OpenAI ha lanciato GPT-5.4 Mini e GPT-5.4 Nano il 17 marzo, completando la sua famiglia GPT-5.4 a più livelli; Mini è più di due volte più veloce del suo predecessore e si avvicina alle prestazioni di punta nei benchmark di codifica, mentre Nano si rivolge a compiti di classificazione ed estrazione dei dati a 0,20 dollari per milione di token di input.

La startup francese di IA Mistral ha rilasciato Mistral Small 4 il 16 marzo, un modello open source da 119 miliardi di parametri con licenza Apache 2.0 che consolida tre prodotti precedentemente separati — ragionamento, visione multimodale e codifica agentica — in un unico endpoint con una finestra di contesto da 256.000 token. Google ha annunciato separatamente Gemini Embedding 2, un modello di embedding multimodale unificato che gestisce testo, immagini, video, audio e documenti all'interno di uno spazio di embedding condiviso.

L'IA mette a dura prova la rete elettrica mentre la sua influenza si estende alla medicina e ai mercati

Gli analisti energetici e i ricercatori del settore dei servizi pubblici hanno pubblicato questa settimana avvertimenti convergenti sul fatto che l'espansione dell'infrastruttura dell'IA sta entrando in collisione con i rigidi limiti fisici della rete elettrica statunitense. Wood Mackenzie ha rilevato che gli sviluppatori di data center hanno aggiunto solo 25 gigawatt di capacità elettrica ai progetti in cantiere nel quarto trimestre del 2025 — la metà del ritmo del trimestre precedente — e ha previsto che la crescita della spesa in conto capitale nel settore subirà un rallentamento nel 2026 per la prima volta dal 2023.

I prezzi dell'elettricità residenziale sono aumentati di oltre il 36% dal 2020, e i data center di IA sono stati citati tra i principali responsabili. Bloomberg ha riferito che i data center stanno già producendo distorsioni elettriche note come armoniche nelle reti regionali, con la Virginia del Nord identificata come un esempio particolarmente grave.

Al di là dell'ambito aziendale, gli sviluppi dell'IA di questa settimana hanno riguardato la medicina, la geopolitica e Wall Street. Microsoft ha annunciato GigaTIME, un modello oncologico multimodale addestrato su dati provenienti da oltre 14.000 pazienti che converte i normali vetrini patologici da 5 a 10 dollari in mappe spaziali proteomiche del cancro, identificando 1.234 connessioni tra proteine e sopravvivenza precedentemente sconosciute.

La Corea del Sud collabora con Anthropic e il punto di svolta dell'IA

La Corea del Sud ha rivelato di essere in trattative dirette con Anthropic per utilizzare il modello Claude dell'azienda come base per un'infrastruttura nazionale sovrana di IA, unendosi a un elenco crescente di nazioni, tra cui gli Emirati Arabi Uniti, la Francia e il Giappone, alla ricerca di accordi di IA tra governo e laboratori. Meta ha reso noto un ritardo nel lancio del suo prossimo modello di punta, nome in codice interno Avocado, posticipando il rilascio da marzo a maggio dopo che i test interni hanno mostrato prestazioni inferiori rispetto alla concorrenza nei benchmark di ragionamento e codifica.

Mentre l'attenzione sugli investimenti si intensifica, Bloomberg ha pubblicato questa settimana un'analisi approfondita in cui si chiede se il boom triennale degli investimenti di capitale nell'IA si stia avvicinando a un punto di svolta.

L'articolo ha osservato che Meta e Google si sono impegnate a raddoppiare le spese in conto capitale nel 2026, mentre le tempistiche di monetizzazione rimangono incerte in tutto il settore. Gli analisti di Wall Street rimangono nettamente divisi sul fatto che l'IA rappresenti un valore economico trasformativo o un ciclo speculativo eccessivo. L'analisi ha definito il 2026 come l'anno in cui il divario tra l'hype sull'IA e il ritorno sull'investimento nell'IA inizierà a chiudersi — o ad ampliarsi.

I data center dedicati all'intelligenza artificiale superano il mining di Bitcoin, innescando un importante cambiamento nel settore

I data center dedicati all'intelligenza artificiale superano il mining di Bitcoin, innescando un importante cambiamento nel settore

I miner di Bitcoin stanno abbandonando la potenza di hash a favore dell'hyperscale, poiché i contratti di intelligenza artificiale, del valore di miliardi di dollari, garantiscono guadagni nettamente superiori rispetto al mining. read more.

Leggi ora

FAQ 🔎

  • Perché Microsoft minaccia di citare in giudizio OpenAI nel 2026? Microsoft sostiene che la partnership cloud esclusiva di OpenAI con Amazon Web Services violi l'accordo esistente tra le società, che richiede che le chiamate API di OpenAI passino attraverso Microsoft Azure.
  • Di quanto è cresciuto il portafoglio ordini di chip di Nvidia al GTC 2026? Il CEO di NVIDIA, Jensen Huang, ha annunciato al GTC 2026 che gli ordini di acquisto per i chip Blackwell e Vera Rubin ammontano ora a 1.000 miliardi di dollari fino al 2027, il doppio rispetto alla cifra di 500 miliardi di dollari riportata l'anno precedente.
  • In che modo i data center di IA stanno influenzando i prezzi dell'elettricità negli Stati Uniti? I prezzi dell'elettricità residenziale sono aumentati di oltre il 36% dal 2020, con la domanda energetica dei data center di IA citata come fattore chiave, mentre Wood Mackenzie prevede che la crescita della capacità dei data center rallenterà nel 2026.
  • Qual è l'accordo della Corea del Sud con Anthropic in materia di IA? Il governo sudcoreano ha annunciato di essere in trattativa diretta con Anthropic per utilizzare il suo modello di IA Claude come base per l'infrastruttura nazionale di IA, rendendo la Corea del Sud parte di un crescente movimento di "IA sovrana" tra i governi che cercano l'indipendenza dalle piattaforme cloud delle grandi aziende tecnologiche statunitensi.