Drivs av
News

Google lanserar Ironwood TPU med 9,216-chip pods och vätskekylning

Google lanserar Ironwood, sin sjunde generationens Tensor Processing Unit, en specialbyggd accelerator för artificiell intelligens (AI) som företaget beskriver som sin mest avancerade hittills—utformad för effektiv inferens i stor skala och redo att utmana Nvidias dominans när tillgängligheten expanderar de kommande veckorna.

SKRIVEN AV
DELA
Google lanserar Ironwood TPU med 9,216-chip pods och vätskekylning

Googles Ironwood TPU Inriktar sig på Nvidias Marknad Med Pod-Skala FP8 Kraft

Google förhandsvisade Ironwood vid Google Cloud Next ’25 i april och breddar nu tillgången, och positionerar chipet som anpassad kisel utrustad för “inferensens tidsålder”, när modeller förväntas svara, resonera och generera i realtid över globala molnregioner.

Enligt en rapport från CNBC, passar denna åtgärd perfekt in i ett bredare maktspel bland hyperskalare som tävlar om att äga AI-stacken från datacenter till utvecklarverktyg. Under huven lutar Ironwood sig på en 3D torus kopplingsstruktur, vätskekylning för långvariga belastningar, och en förbättrad Sparsecore för att accelerera ultra-stora inbäddningar för rankning, rekommendationer, finans och vetenskaplig databehandling.

Den är konstruerad för att minimera datarörelse och kommunikationsflaskhalsar—två orsaker som ofta begränsar genomströmningen i uppgifter med flera chip. De råa siffrorna är designade för att väcka uppmärksamhet: upp till 4,614 TFLOPs (FP8) per chip, 192 GB HBM med 7,37 TB/s bandbredd, och 1,2 TB/s bidirektionell inter-chip bandbredd. Pods skalar från 256 chip till en 9,216-chip konfiguration som levererar 42,5 exaflops (FP8) av beräkningskraft, med full pod-effektförbrukning runt 10 MW och vätskekylning som möjliggör avsevärt högre konstant prestanda än luft.

Google säger att Ironwood är mer än 4× snabbare än den tidigare Trillium (TPU v6) i total AI-genomströmning och erbjuder ungefär 2× bättre prestanda per watt—medan den uppnår nästan 30× energijämförelse mot dess första Cloud TPU från 2018. I sin mest maxade form hävdar företaget en beräkningsmässig fördel över toppsuperdatorer som El Capitan när den mäts vid FP8 exaflops. Som alltid spelar metodologin roll men avsikten är klar.

Även om den kan träna, fokuserar Ironwoods presentation på inferens för stora språkmodeller och Mixture-of-Experts-system—precis den hög-QPS, låglatensarbete som nu översvämmar datacenter från Nordamerika till Europa och Asien-Stillahavsområdet. Tänk chattbotar, agenter, Gemini-klassmodeller och sök- och recsys pipelines med hög dimension som kräver snabb minne och tät pod-skala synkronisering.

Integration sker genom Google Clouds AI Hyperdator—som parar hårdvaran med mjukvara som Pathways för att orkestrera distribuerad beräkning över tusentals dies. Den stacken stöder redan konsument- och företagstjänster från Sök till Gmail, och Ironwood passar in som en uppgraderingsväg för kunder som vill ha en hanterad, TPU-inhemsk rutt bredvid GPU:er.

Det finns ett marknadsmässigt budskap inbakat: Google utmanar Nvidias dominans genom att hävda att domänspecifika TPU:er kan slå generella GPU:er på pris-prestanda och energiförbrukning för vissa AI-uppgifter. CNBC:s rapport säger att tidiga antagare inkluderar Anthropic, som planerar att distribuera i miljoner TPU-skala för Claude—en ögonbrynshöjande signal om hur stora inferensfotavtryck håller på att bli.

Alphabets VD Sundar Pichai ramade in efterfrågan som en nyckelfaktor för intäkter och hänvisade till en 34% ökning av intäkterna för Google Cloud till 15,15 miljarder dollar under Q3 2025, samt investeringar knutna till AI-utbyggnad som uppgick till 93 miljarder dollar. ”Vi ser betydande efterfrågan på våra AI-infrastrukturprodukter… och vi investerar för att tillgodose den,” sade han, och noterade att fler miljardavtal tecknades i år än under de två föregående tillsammans.

Ironwoods bredare tillgänglighet är planerad till senare under 2025 genom Google Cloud, med tillgångsförfrågningar öppna nu. För företag i USA, Europa och över Asien-Stillahavsområdet som väger kraftbudgetar, rackdensitet och latensmål, är frågan mindre om hype och mer om huruvida Ironwoods pod-skala FP8 matematik och kylprofil stämmer överens med deras produktionsarbetsbelastningar.

FAQ ❓

  • Var kommer Ironwood att finnas tillgänglig? Genom Google Cloud i globala regioner, inklusive Nordamerika, Europa och Asien-Stillahavsområdet.
  • När börjar tillgången? Bredare tillgänglighet börjar de kommande veckorna, med större utrullning senare under 2025.
  • För vilka arbetsbelastningar är det byggt? Höghastighetsinferens för LLM:er, MoE:er, sök, rekommendationer, finans och vetenskaplig databehandling.
  • Hur jämför det sig med tidigare TPU:er? Google anger 4× högre genomströmning och 2× bättre prestanda per watt än Trillium.