Google uvaja Ironwood, svojo sedmo generacijo Tenzorskih Procesorskih Enot (TPU), namenski pospeševalnik umetne inteligence (AI), ki ga podjetje označuje za svojega najnaprednejšega doslej—zgrajenega za učinkovito sklepanje na večjem merilu in pripravljenega za izzivanje Nvidijinega vodstva, saj se razpoložljivost širi v prihodnjih tednih.
Google uvaja Ironwood TPU s 9.216 čipovnimi enotami in tekočinskim hlajenjem

Google’s Ironwood TPU cilja na Nvidiino področje s pod-ozirom FP8 močjo
Google je predstavil Ironwood na Google Cloud Next ’25 aprila in sedaj širi dostop, pozicionira čip kot prilagojeno silicijevo rešitev za “dobo sklepanje”, ko se pričakuje, da bodo modeli odgovarjali, razmišljali in ustvarjali v realnem času po vsem svetu v oblačnih regijah.
Po poročilu CNBC se ta korak popolnoma prilega širši akciji moči med hiper-razširitelji, ki hitijo lastiti AI sklad od podatkovnih centrov do razvojnih orodij. V ozadju Ironwooda se skriva 3D torična povezava, tekoče hlajenje za vzdržljive obremenitve in izboljšan Sparsecore za pospeševanje ultra-velikih vstavitev za rangiranje, priporočila, finance in znanstveno računalništvo.
Je zgrajen za zmanjševanje gibanja podatkov in ozkih grl v komunikaciji—dva krivca, ki pogosto omejujeta prepustnost v več-čipovskih opravilih. Surovi podatki so zasnovani, da pritegnejo pozornost: do 4.614 TFLOPS (FP8) na čip, 192 GB HBM s 7.37 TB/s pasovne širine in 1.2 TB/s dvosmerne medčipovne pasovne širine. Podi se raztezajo od 256 čipov do konfiguracije z 9.216 čipi, ki zagotavlja 42.5 eksaflops (FP8) računalniške moči, z energijsko zahtevo celotnega poda okoli 10 MW in tekočim hlajenjem, ki omogoča bistveno višjo vzdržljivo zmogljivost kot zračna hlajenja.
Google pravi, da je Ironwood več kot 4× hitrejši od prejšnjega Trilliuma (TPU v6) v skupni AI prepustnosti in ponuja približno 2× boljšo zmogljivost na vat—medtem ko dosega skoraj 30× energetske učinkovitosti svojega prvega Cloud TPU iz leta 2018. V izpopolnjeni obliki podjetje trdi, da ima računalniško prednost pred vodilnimi superračunalniki, kot je El Capitan, če se meri v FP8 eksaflops. Metodologija je, kot vedno, pomembna, vendar je namen jasen.
Medtem ko lahko trenira, Ironwoodova predstavitev temelji na sklepanju za velike jezikovne modele in sisteme MoE—točno tisto delo z visoko QPS in nizko zakasnitvijo, ki sedaj poplavlja podatkovne centre od Severne Amerike do Evrope in Azijsko-pacifiške regije. Pomislite na klepetalnice, agente, modele razreda Gemini in iskalne in recsys pipelines visoke dimenzije, ki zahtevajo hitri pomnilnik in sinhronizacijo na ravni podov.
Integracija se udejanja prek Googlovega Cloudovega AI Hypercomputerja—ki strojno opremo povezuje z programsko opremo, kot je Pathways, za orkestracijo razdeljenega računalništva čez tisoče silicijskih plošč. Ta sklad že podpira potrošniške in poslovne storitve od Iskanja do Gmaila, in Ironwood se vključuje kot nadgradna pot za stranke, ki želijo upravljano, TPU-nativno pot ob bok GPU-jem.
Na trgu je prisotno sporočilo: Google izziva Nvidiino prevlado z argumentom, da lahko specifični TPUs premagajo splošne GPU-je glede na razmerje med ceno in zmogljivostjo ter porabo energije za določene AI naloge. CNBC-jev članek pravi, da so zgodnji sprejemniki, kot je Anthropic, ki načrtuje uvajanja na milijonski ravni TPU-jev za Claude—presenetljiv signal, kako veliko postajajo odtisi sklepanja.
Izvršni direktor Alfabeta Sundar Pichai je povpraševanje označil kot ključno gonilo prihodkov in navedel 34-odstotno rast letnega prihodka Google Cloud na 15,15 milijard dolarjev v Q3 2025 in kapitalske izdatke, povezane s širjenjem AI, ki skupaj znašajo 93 milijard dolarjev. “Opazujemo občutno povpraševanje po naših AI infrastrukturnih izdelkih… in vlagamo, da ga zadovoljimo,” je dejal, pri čemer je omenil, da je bilo letos podpisanih več milijardnih pogodb kot v prejšnjih dveh letih skupaj.
Širša dostopnost Ironwooda je predvidena za kasneje v letu 2025 prek Google Cloud, z odprtimi prošnjami za dostop že zdaj. Za podjetja v ZDA, Evropi in širom Azijsko-pacifiške regije, ki tehtajo proračune za energijo, gostoto v regalu in ciljni čas zakasnitve, vprašanje ni toliko o hajpu, ampak ali se Ironwoodov matematični in hladilni profil za pod on FP8 ujema z njihovimi produkcijskimi obremenitvami.
FAQ ❓
- Kje bo Ironwood na voljo? Prek Google Clouda v svetovnih regijah, vključno s Severno Ameriko, Evropo in Azijsko-pacifiško regijo.
- Kdaj se začne dostop? Širša dostopnost se začne v prihodnjih tednih, s širšo uvedbo kasneje v letu 2025.
- Za katere delovne obremenitve je zgrajen? Za visoko prepustno sklepanje za LLM-e, MoE-je, iskanje, priporočila, finance in znanstveno računalništvo.
- Kako se primerja s prejšnjimi TPU-ji? Google navaja 4× večjo prepustnost in 2× boljšo zmogljivost na vat kot Trillium.















