Google julkaisee Ironwoodin, sen seitsemännen sukupolven Tensor Processing Unitinsa, tekoälyn (AI) kiihdyttimen, jota yritys kuvailee toistaiseksi edistyneimmäksi—suunniteltu tehokkaaseen, laajamittaiseen päätöksentekoon ja valmis haastamaan Nvidian johtoaseman, kun saatavuus laajenee tulevina viikkoina.
Google julkaisee Ironwood TPU:n, jossa on 9 216 sirun podit ja nestemäinen jäähdytys.

Googlen Ironwood TPU haastaa Nvidian alan pod-tason FP8-teholla
Google esitteli Ironwoodia Google Cloud Next ’25:ssä huhtikuussa ja laajentaa nyt pääsyä, asettaen piirin mukautetuksi piisiruksi, joka on viritetty “päätöksenteon aikakauteen”, jolloin mallien odotetaan vastaavan, päättävän ja tuottavan reaaliajassa ympäri maailman pilvialueita.
CNBC:n raportin mukaan liike sulautuu täydellisesti osaksi laajempaa valtasuhdetta, jossa hyperskaalaajat kilpailevat hallitakseen AI-pinoa konesalista kehitystyökalupakkiin. Konepellin alla Ironwood tukeutuu 3D-torusta-interconnectiin, nestemäiseen jäähdytykseen kestävälle kuormitukselle ja parannettuun Sparcecoreen kiihdyttääkseen ultra-suuria upotuksia ranking-, suositus-, finanssi- ja tieteellisissä laskelmissa.
Se on suunniteltu minimoimaan datan liikkumisen ja viestinnän pullonkaulat—kaksi syyllistä, jotka usein rajoittavat läpimenoa monisiru-tehtävissä. Raakaluvut on suunniteltu kiinnittämään huomio: jopa 4 614 TFLOPS (FP8) sirua kohden, 192 GB HBM 7,37 TB/s kaistanleveydellä ja 1,2 TB/s kaksisuuntainen sirujen välinen kaistanleveys. Podit skaalautuvat 256 sirusta 9 216 sirun kokoonpanoon, joka tuottaa 42,5 eksaflopsia (FP8) laskentatehoa, täydet podit kuluttavat noin 10 MW tehoa, ja nestemäinen jäähdytys mahdollistaa huomattavasti korkeamman kestävän suorituskyvyn kuin ilma.
Google sanoo, että Ironwood on yli 4× nopeampi kuin edellinen Trillium (TPU v6) AI:n kokonaisläpimenossa ja tarjoaa noin 2× paremman suorituskyvyn wattia kohden—samaan aikaan, kun se saavuttaa lähes 30× tehonkäytön tehokkuuden ensimmäiseen Cloud TPU:hun vuodelta 2018 verrattuna. Maksimaalisessa muodossaan yritys väittää laskennallista etua huippuperdatietokoneisiin, kuten El Capitan, verrattuna, kun sitä mitataan FP8 eksaflopsina. Kuten aina, menetelmällä on merkitystä, mutta aikomus on selvä.
Vaikka se voi kouluttaa, Ironwoodin käyttöliittymä keskittyy suurin kielimallien ja Mixture-of-Experts-järjestelmien päätöksentekoon—tarkalleen ottaen korkea-QPS, matalan latenssin työt, jotka nyt tulvivat konesaleja Pohjois-Amerikassa, Euroopassa ja Aasia-Tyynenmeren alueella. Ajattele chatbotteja, agentteja, Gemini-luokan malleja ja korkean ulottuvuuden haku- ja palautusreittejä, jotka vaativat nopeaa muistia ja tiivistä pod-tason synkronointia.
Integraatio saapuu Google Cloudin AI-hyperkoneen kautta—yhdistäen laitteiston Pathwaysin kaltaisiin ohjelmistoihin järjestämään hajautettua laskentaa tuhansien dieiden kesken. Tämä pino tukee jo kuluttaja- ja yrityspalveluja, kuten hakua ja Gmailia, ja Ironwood asettuu päivityspoluksi asiakkaille, jotka haluavat hallitun, TPU-alkuperäisen reitin GPU-iden rinnalla.
Markkinointiviesti on leivottu sisään: Google haastaa Nvidian määräävää asemaa väittämällä, että alakohtaiset TKU:t voivat voittaa yleiskäyttöiset GPU:t hinta-suorituskyvyssä ja energiankulutuksessa tietyille AI-tehtäville. CNBC:n raportin mukaan varhaiset omaksujat sisältävät Anthropic, joka suunnittelee miljoonan TPU:n laajuisia käyttöönottoja Claudelle—kulmankohottava signaali siitä, kuinka suuriksi päätöksenteon jalanjäljet ovat kasvamassa.
Alphabetin toimitusjohtaja Sundar Pichai kuvasi kysyntää keskeisenä tulenlähteenä viitaten 34% nousuun Google Cloud -tuloissa, yhteensä 15,15 miljardia dollaria kolmannelta neljännekseltä 2025 ja AI-rakennukseen liittyvät pääomakustannukset yhteensä 93 miljardia dollaria. “Näemme merkittävää kysyntää AI-infrastruktuurituotteillemme… ja investoimme vastaamaan siihen”, hän sanoi, huomauttaen, että tänä vuonna tehtiin enemmän miljardiluokan kauppoja kuin edellisinä kahtena yhteensä.
Ironwoodin laajempi saatavuus on tarkoitus vuoden 2025 loppupuolella kautta Google Cloudin, ja pääsyä voi pyytää nyt. Yrityksille Yhdysvalloissa, Euroopassa ja Aasia-Tyynenmeren alueella, jotka pohtivat tehobudjetteja, telineiden tiheyttä ja latenssitavoitteita, kysymys on vähemmän hypetystä ja enemmän siitä, vastaavatko Ironwoodin pod-tason FP8-matematiikka ja jäähdytysprofiili niiden tuotantotyökuormia.
UKK ❓
- Missä Ironwood on saatavilla? Googlen Cloudin kautta maailmanlaajuisilla alueilla, mukaan lukien Pohjois-Amerikka, Eurooppa ja Aasia-Tyynenmeren alue.
- Milloin pääsy alkaa? Laajempi saatavuus alkaa tulevina viikkoina, ja laajempi julkaisu myöhemmin vuonna 2025.
- Mille työkuormille se on suunniteltu? Korkean läpimenon päätöksenteko kielimalleille, MoE:ille, hakuihin, suosituksiin, rahoitukseen ja tieteelliseen laskentaan.
- Miten se vertautuu aiempiin TKU:ihin? Google mainitsee 4× korkeamman läpimenon ja 2× paremman suorituskyvyn wattia kohden verrattuna Trilliumiin.















