Drevet af
News

Google lancerer Ironwood TPU med pods med 9.216 chips og væskekøling

Google lancerer Ironwood, dens syvende generation af Tensor Processing Unit, en specialbygget kunstig intelligens (AI) accelerator, som virksomheden betegner som sin mest avancerede til dato – bygget til effektiv, skaleret inferens og klar til at udfordre Nvidia’s føring, idet tilgængeligheden udvides i de kommende uger.

SKREVET AF
DEL
Google lancerer Ironwood TPU med pods med 9.216 chips og væskekøling

Googles Ironwood TPU Retter sig mod Nvidias Teritorium med Pod-Skala FP8 Kraft

Google fremviste Ironwood ved Google Cloud Next ’25 i april og udvider nu adgangen, og positionerer chippen som speciallavet silicium justeret til “alderen for inferens,” når modeller forventes at respondere, ræsonnere og generere i realtid på tværs af globale skyregioner.

Ifølge en CNBC-rapport, er flytningen en del af en bredere magtstrategi blandt hyperstorskalaudbydere, der kæmper om at eje AI-stakken fra datacenter til udviklingsværktøjskasse. Under overfladen baserer Ironwood sig på en 3D torusbuss, væskekøling til vedvarende belastninger og en forbedret Sparsecore til at accelerere ultra-store indlejringer for rangering, anbefalinger, finans og videnskabelig databehandling.

Den er konstrueret til at minimere databevægelse og kommunikationsflaskehalse – to syndere, der ofte begrænser gennemløb i multi-chip jobs. De rå tal er designet til at vække opsigt: op til 4.614 TFLOPs (FP8) per chip, 192 GB HBM med 7.37 TB/s båndbredde og 1.2 TB/s tovejskredsløbs båndbredde. Pods kan skaleres fra 256 chips til en 9.216-chip konfiguration med levering af 42,5 exaflops (FP8) beregninger, med et fuldt pod-effekttræk omkring 10 MW og væskekøling, som muliggør betydeligt højere vedvarende ydeevne end luft.

Google siger, at Ironwood er mere end 4× hurtigere end den forrige Trillium (TPU v6) i samlet AI-gennemløb og tilbyder omtrent 2× bedre ydeevne per watt – mens den leverer næsten 30× effektivitetsforøgelse i forhold til deres første Cloud TPU fra 2018. I sine fuldt maximerede form hævder virksomheden en beregningsfordel over top-supercomputere som El Capitan, når målt ved FP8 exaflops. Som altid er metodologien vigtig, men hensigten er klar.

Selvom den kan træne, er Ironwoods præsentation centreret om inferens for store sprogmodeller og Mixture-of-Experts systemer – netop det høj-QPS, lav-latency arbejde, der nu oversvømmer datacentre fra Nordamerika til Europa og Asien-Pacific. Tænk chatbots, agenter, Gemini-klasse modeller og høj-dimension søge- og recsys pipelines, der kræver hurtig hukommelse og tæt pod-skala synkronisering.

Integration kommer gennem Google Clouds AI Hypercomputer – som parrer hardwaren med software som Pathways til at orkestrere distribueret databehandling på tværs af tusinder af die. Den stak understøtter allerede forbruger- og erhvervstjenester fra Search til Gmail, og Ironwood indgår som en opgraderingsmulighed for kunder, der ønsker en administreret, TPU-native rute sammen med GPUer.

Der er en markedsmæssig besked indlejret: Google udfordrer Nvidias dominans ved at argumentere for, at domænespecifikke TPUer kan slå generelle GPUer på pris-ydeevne og energiforbrug for visse AI-opgaver. CNBC-rapporten siger, at tidlige adoptanter inkluderer Anthropic, der planlægger udrulninger på million-TPU skala for Claude – et øjenbrynsrejsende signal om, hvor store inferensfodsporene bliver.

Alphabet CEO Sundar Pichai rammesatte efterspørgslen som en vigtig indtægtsdriver og nævnte en 34 % stigning i Google Clouds omsætning til $15,15 milliarder i Q3 2025 og anlægsinvesteringer bundet til AI-udbygning, der beløb sig til $93 milliarder. “Vi oplever betydelig efterspørgsel efter vores AI-infrastrukturprodukter… og vi investerer for at imødekomme den,” sagde han, mens han bemærkede, at der blev indgået flere milliard-dollar aftaler i år end i de foregående to år tilsammen.

Ironwoods bredere tilgængelighed er planlagt til senere i 2025 gennem Google Cloud, med adgangsforespørgsler åbne nu. For virksomheder i USA, Europa og Asien-Pacific, der afvejer energibudgetter, racktæthed og latensmål, handler spørgsmålet mindre om hype og mere om, hvorvidt Ironwoods pod-skala FP8 matematik og køleprofil stemmer overens med deres produktionsarbejdsbelastninger.

FAQ ❓

  • Hvor vil Ironwood være tilgængelig? Gennem Google Cloud i globale regioner, herunder Nordamerika, Europa og Asien-Stillehavet.
  • Hvornår begynder adgangen? Bredere tilgængelighed starter i de kommende uger, med bredere udrulning senere i 2025.
  • Hvilke arbejdsbelastninger er den bygget til? Høj-gennemløbs inferens for LLM’er, MoE’er, søgning, anbefalinger, finans og videnskabelig databehandling.
  • Hvordan sammenligner den sig med tidligere TPU’er? Google angiver 4× højere gennemløb og 2× bedre ydeevne per watt end Trillium.