Google lanserer Ironwood, sin sjuende generasjon Tensor Processing Unit, en spesialbygd akselerator for kunstig intelligens (AI) som selskapet beskriver som sin mest avanserte hittil—bygd for effektiv, skalerbar inferens og klar til å utfordre Nvidias ledelse når tilgjengeligheten utvides i de kommende ukene.
Google lanserer Ironwood TPU med 9,216-brikkepods og væskekjøling

Googles Ironwood TPU Sikter seg inn på Nvidias Domene med Pod-Skala FP8 Kraft
Google forhåndsviste Ironwood på Google Cloud Next ’25 i april og utvider nå tilgangen ved å posisjonere brikken som spesialtilpasset silisium justert for “alderen for inferens,” når modeller forventes å svare, resonnere og generere i sanntid over globale cloud-regioner.
Ifølge en CNBC-rapport integrerer dette trekkene direkte inn i et bredere maktspill blant hyperskalere som kjemper for å eie AI-stack fra datasenter til utviklingsverktøysett. Under panseret avhenger Ironwood av en 3D-torus sammenkobling, væskekjøling for opprettholdte laster, og en forbedret Sparsecore for å akselerere ultra-store innebygginger for rangeringer, anbefalinger, finans og vitenskapelig databehandling.
Den er konstruert for å minimere databevegelse og kommunikasjonsflaskehalser—to syndere som ofte begrenser gjennomstrømning i multi-chip-jobber. De rå tallene er laget for å vekke oppsikt: opptil 4,614 TFLOPs (FP8) per chip, 192 GB HBM med 7,37 TB/s båndbredde, og 1,2 TB/s toveiskommunikasjon mellom chips. Pods kan skaleres fra 256 chips til en 9,216-chip-konfigurasjon som leverer 42,5 exaflops (FP8) med beregning, med full-pod effektforbruk rundt 10 MW og væskekjøling gjør det mulig med betydelig høyere kontinuerlig ytelse enn luft.
Google sier Ironwood er mer enn 4× raskere enn den forrige Trillium (TPU v6) i total AI-gjennomstrømning og tilbyr omtrent 2× bedre ytelse per watt—mens den leser nesten 30× strømforbrukseffektiviteten til sin første Cloud TPU fra 2018. I maksimalisert form hevder selskapet en beregningsfordel over toppsuperdatamaskiner som El Capitan når målt ved FP8 exaflops. Som alltid betyr metodologien noe, men hensikten er klar.
Mens den kan trene, fokuserer Ironwood spesielt på inferens for store språkmodeller og Mixture-of-Experts-systemer—akkurat de høy-QPS, lav-forsinkelsesoppgavene som nå oversvømmer datasentre fra Nord-Amerika til Europa og Asia-Stillehavsområdet. Tenk chatbots, agenter, Gemini-class modeller og høydimensjonale søke- og anbefalingspipelines som krever raskt minne og tett pod-skala synkronisering.
Integrasjon kommer via Google Clouds AI Hypercomputer—som kombinerer maskinvaren med programvare som Pathways for å orkestrere distribuert beregning over tusenvis av brikker. Denne stakken støtter allerede forbruker- og forretningstjenester fra Søk til Gmail, og Ironwood passer som en oppgraderingssti for kunder som ønsker en administrert, TPU-native rute ved siden av GPUer.
Det er en markedsmelding bakt inn: Google utfordrer Nvidias dominans ved å hevde at domene-spesifikke TPUer kan slå generelle GPUer på pris-ytelse og energibruk for visse AI-oppgaver. CNBCs rapport sier tidlige brukere inkluderer Anthropic, som planlegger implementeringer i million-TPU-skala for Claude—et oppsiktsvekkende signal om hvor store inferensfotavtrykk blir.
Alphabets CEO Sundar Pichai rammet inn etterspørselen som en viktig inntektsdriver, og nevnte en økning på 34% i Google Cloud-inntekter til $15,15 milliarder i Q3 2025 og kapex knyttet til AI-utbygging som totalt $93 milliarder. “Vi ser betydelig etterspørsel etter våre AI-infrastrukturprodukter… og vi investerer for å møte det,” sa han, og bemerket at flere milliard-dollardealer ble inngått i år enn i de to foregående til sammen.
Ironwoods bredere tilgjengelighet er planlagt for senere i 2025 gjennom Google Cloud, med tilgangsforespørslene åpne nå. For bedrifter i USA, Europa, og over hele Asia-Stillehavet som vurderer strømbudsjetter, rack-tetthet og forsinkelsesmål, handler spørsmålet mindre om hype og mer om hvorvidt Ironwoods pod-skala FP8-matematikk og kjøleprofil stemmer overens med deres produksjonsarbeidsmengder.
FAQ ❓
- Hvor vil Ironwood være tilgjengelig? Gjennom Google Cloud i globale regioner, inkludert Nord-Amerika, Europa, og Asia-Stillehavet.
- Når begynner tilgangen? Bredere tilgjengelighet starter i de kommende ukene, med videre utrulling senere i 2025.
- Hvilke arbeidsmengder er den bygd for? Høy-gjennomstrømningsinferens for LLMer, MoEer, søk, anbefalinger, finans, og vitenskapelig databehandling.
- Hvordan sammenlignes den med tidligere TPUer? Google hevder 4× høyere gjennomstrømning og 2× bedre ytelse per watt enn Trillium.















