Aangedreven door
News

Google lanceert Ironwood TPU met 9.216-chip pods en vloeistofkoeling

Google lanceert Ironwood, zijn zevende generatie Tensor Processing Unit, een speciaal gebouwde kunstmatige intelligentie (AI) accelerator die het bedrijf aanprijst als zijn meest geavanceerde tot nu toe – gebouwd voor efficiënte, grootschalige inferentie en klaar om Nvidia’s voorsprong uit te dagen nu de beschikbaarheid in de komende weken uitbreidt.

GESCHREVEN DOOR
DELEN
Google lanceert Ironwood TPU met 9.216-chip pods en vloeistofkoeling

Google’s Ironwood TPU Richt Zich Op Nvidia’s Territorium Met Pod-Schaal FP8 Kracht

Google gaf een voorproefje van Ironwood op Google Cloud Next ’25 in april en breidt nu de toegang uit, waarbij de chip wordt gepositioneerd als op maat gemaakte siliconen afgestemd voor het “tijdperk van inferentie”, waarin modellen naar verwachting in real-time zullen reageren, redeneren en genereren in wereldwijde cloudregio’s.

Volgens een CNBC-rapport past deze zet perfect in een bredere machtsstrijd onder hyperscalers die strijden om het AI-stapel van datacenter tot ontwikkelhulpmiddel in handen te krijgen. Onder de motorkap leunt Ironwood op een 3D torus interconnect, vloeistofkoeling voor langdurige belasting en een verbeterde Sparsecore om ultra-grote embeddings te versnellen voor rangschikking, aanbevelingen, financiën en wetenschappelijke berekeningen.

Het is ontworpen om databeweging en communicatieknelpunten te minimaliseren – twee boosdoeners die vaak de doorvoer beperken in multi-chip taken. De ruwe cijfers zijn ontworpen om de aandacht te trekken: tot 4.614 TFLOPs (FP8) per chip, 192 GB HBM met 7,37 TB/s bandbreedte, en 1,2 TB/s bidirectionele inter-chip bandbreedte. Pods schalen van 256 chips tot een configuratie van 9.216 chips die 42,5 exaflops (FP8) aan rekenkracht levert, met een volledig pod-stroomverbruik van ongeveer 10 MW en vloeistofkoeling die aanzienlijk hogere prestaties op lange termijn mogelijk maakt dan lucht.

Google zegt dat Ironwood meer dan 4× sneller is dan de vorige Trillium (TPU v6) in totale AI-doorvoer en ongeveer 2× betere prestaties per watt biedt – terwijl het bijna 30× de energie-efficiëntie van zijn eerste Cloud TPU uit 2018 behaalt. In maximaal uitgevoerde vorm beweert het bedrijf een rekentechnische voorsprong te hebben op top supercomputers zoals El Capitan, gemeten in FP8 exaflops. Zoals altijd is de methodologie belangrijk, maar de intentie is duidelijk.

Hoewel het kan trainen, richt Ironwood zich vooral op inferentie voor grote taalmodellen en Mixture-of-Experts systemen – precies het soort high-QPS, lage-latentie werk dat nu datacenters overspoelt van Noord-Amerika tot Europa en Azië-Pacific. Denk aan chatbots, agents, Gemini-klasse modellen, en zoek- en recsys-pijplijnen met hoge dimensie die snelle geheugen en strakke pod-schaal synchronisatie vereisen.

Integratie vindt plaats via Google Cloud’s AI Hypercomputer – waarbij de hardware gecombineerd wordt met software zoals Pathways om gedistribueerde berekeningen te coördineren over duizenden dies. Die stapel ondersteunt al consument- en bedrijfsdiensten van Search tot Gmail, en Ironwood voegt zich daarbij als een upgradepad voor klanten die een beheerde, TPU-native route willen naast GPU’s.

Er is een marktboodschap ingekapseld: Google daagt Nvidia’s dominantie uit door te stellen dat domeinspecifieke TPU’s algemene GPU’s kunnen verslaan op prijs/prestatie en energiegebruik voor bepaalde AI-taken. Volgens het CNBC-rapport behoren vroege gebruikers tot Anthropic, die inzet op miljoenen-TPU-schaal voor Claude plannen – een fronsveroorzakend signaal van hoe groot inferentievoetafdrukken worden.

Alphabet CEO Sundar Pichai noemde de vraag als een belangrijke inkomstenstuwdriver en meldde een stijging van 34% in Google Cloud-omzet naar $15,15 miljard in Q3 2025 en capex gebonden aan AI-uitbreiding dat in totaal $93 miljard bedraagt. “We zien aanzienlijke vraag naar onze AI-infrastructuurproducten… en we investeren om daaraan te voldoen,” zei hij, en merkte op dat er dit jaar meer miljard-deals zijn getekend dan in de vorige twee jaar samen.

Ironwood’s bredere beschikbaarheid is gepland voor later in 2025 via Google Cloud, met toegangsverzoeken die nu open zijn. Voor bedrijven in de VS, Europa en overal in Azië-Pacific die stroombudgetten, rekringsdichtheid, en latentie-doelstellingen afwegen, gaat de vraag minder over hype en meer over of Ironwood’s pod-schaal FP8-mathematica en koelprofiel aansluiten bij hun productiebelastingen.

FAQ ❓

  • Waar zal Ironwood beschikbaar zijn? Via Google Cloud in wereldwijde regio’s, waaronder Noord-Amerika, Europa en Azië-Pacific.
  • Wanneer begint de toegang? Wijdere beschikbaarheid begint in de komende weken, met een bredere uitrol later in 2025.
  • Voor welke werkbelastingen is het gebouwd? Hoogdoorvoer-inferentie voor LLM’s, MoE’s, zoekopdrachten, aanbevelingen, financiën, en wetenschappelijk rekenen.
  • Hoe verhoudt het zich tot eerdere TPU’s? Google meldt 4× hogere doorvoer en 2× betere prestaties per watt dan Trillium.