Működteti
News

Google bevezeti az Ironwood TPU-t 9 216 chip-es podokkal és folyadékhűtéssel

A Google bevezeti az Ironwoodot, a hetedik generációs Tensor Processing Unitot, amelyet kifejezetten mesterséges intelligencia (AI) gyorsítónak terveztek, amit a vállalat eddigi legfejlettebbjének tart, kifejezetten hatékony, nagy mérvű inferenciára tervezve, és készen áll arra, hogy kihívást jelentsen az Nvidia vezetésére, mivel a rendelkezésre állás a következő hetekben bővül.

MEGOSZTÁS
Google bevezeti az Ironwood TPU-t 9 216 chip-es podokkal és folyadékhűtéssel

A Google Ironwood TPU-ja célba veszi az Nvidia területét Pod-méretű FP8 teljesítménnyel

A Google előzetesen bemutatta az Ironwoodot a Google Cloud Next ’25 eseményen áprilisban, és most bővíti hozzáférést, a chipet pedig olyan egyedi szilíciumként pozicionálja, amelyet az „inferencia korára” hangoltak, amikor a modellektől elvárják, hogy valós időben reagáljanak, érveljenek és generáljanak a globális felhőrégiókban.

A CNBC riportja szerint a lépés tökéletesen illeszkedik a hyperscalerek közötti szélesebb köreig terjedő hatalmi játszmákba, akik igyekeznek az AI stack teljes irányítását megszerezni az adatközpontoktól a fejlesztői eszközkészletig. A motorháztető alatt az Ironwood a 3D torusz összekötés alkalmazását, folyadékhűtést a tartós terhelésekhez, és egy továbbfejlesztett Sparsecore-t használ, amely felgyorsítja az ultra-nagy beágyazásokat rangsorolás, ajánlások, pénzügyek és tudományos számítástechnika céljára.

Ez úgy lett tervezve, hogy minimalizálja az adatmozgási és kommunikációs szűk keresztmetszeteket—két olyan tettest, amelyek gyakran korlátozzák az áteresztőképességet több chip-munka esetén. A nyers számok figyelemfelkeltőek: akár 4 614 TFLOP (FP8) chipenként, 192 GB HBM 7,37 TB/s sávszélességgel, és 1,2 TB/s kétirányú chip közötti sávszélesség. A podok 256 chiptől egy 9 216 chip konfigurációig skálázhatók, amely 42,5 exaflops (FP8) számítást nyújt, a teljes pod energiafogyasztása kb. 10 MW, és a folyadékhűtés jelentősen magasabb tartós teljesítményt biztosít, mint a levegő.

A Google szerint az Ironwood több mint 4× gyorsabb, mint az előző Trillium (TPU v6) az összes AI áteresztőképességben, és körülbelül 2× jobb teljesítményt nyújt wattként—miközben közel 30× az első Cloud TPU 2018-as energiahatékonysága. Maximalizált formában a vállalat azt állítja, hogy számítási előnyökkel bír a legfőbb szuperszámítógépekhez képest, mint például az El Capitan, amikor FP8 exaflopsban mérik. Mint mindig, a módszertan számít, de a szándék világos.

Míg képes tréningre, az Ironwood főként az inferenciára fókuszál nagy nyelvi modellek és szakértőkből álló rendszerek számára—pontosan az a magas QPS, alacsony késleltetésű munka, amely most elárasztja az adatközpontokat Észak-Amerikában, Európában és az ázsiai-csendes-óceáni térségben. Gondoljunk a chatbotokra, ügynökökre, Gemini-osztályú modellekre és nagy dimenziójú keresési és recsys csatornákra, amelyek gyors memóriát és szoros pod-méretű szinkronizálást igényelnek.

Az integráció a Google Cloud AI Hypercomputer-en keresztül érkezik—összekapcsolva a hardvert olyan szoftverekkel, mint a Pathways, hogy elosztott számítást koordináljon ezer darab között. Ez a halom már támogatja a fogyasztói és vállalati szolgáltatásoktól kezdve a Keresésig és a Gmailig, és az Ironwood lehetőséget nyújt egy frissítési útvonalra az ügyfelek számára, akik egy kezelt, TPU-alapú utat akarnak a GPU-k mellett.

Van egy piaci üzenet beágyazva: a Google az Nvidia dominanciáját kihívás elé állítja azzal, hogy azt állítja, a domain-specifikus TPU-k felülmúlhatják az általános célú GPU-kat az ár-teljesítmény és az energiafelhasználás tekintetében bizonyos AI feladatoknál. A CNBC jelentése szerint a korai adaptálók közé tartozik az Anthropic, amely milliós TPU méretű telepítéseket tervez Claude számára—a jel hogy mennyire növekednek az inferencia lábnyomai.

Az Alphabet vezérigazgatója, Sundar Pichai a keresletet kulcsfontosságú bevételi hajtóerőként emlegette, utalva arra, hogy a Google Cloud bevétele 34%-kal nőtt, elérve a 15,15 milliárd dollárt 2025 harmadik negyedévében, és az AI kiépítéséhez kötött tőkeberuházások összesen 93 milliárd dollárt tettek ki. „Jelentős keresletet tapasztalunk az AI infrastruktúra termékeink iránt… és ebbe fektetünk be, hogy kielégítsük ezt,” mondta, megjegyezve, hogy több milliárd dolláros üzletet kötöttek ebben az évben, mint az előző kettőben összesen.

Az Ironwood széleskörű elérhetőségét 2025 későbbi részére tervezi Google Cloud, a hozzáférési kérelmek most nyitva állnak. Az USA-ból érkező, európai és ázsiai-csendes-óceáni térségbeli vállalkozások számára mérlegelve az energia felhasználási költségeket, rack-sűrűséget és késleltetési célokat, a kérdés kevésbé a felhajtásról szól, és inkább arról, hogy az Ironwood pod-méretű FP8 matematika és hűtési profil összhangban van-e az ő gyártási munkaterheikkel.

GYIK ❓

  • Hol lesz elérhető az Ironwood? A Google Cloud-on keresztül a globális régiókban, köztük Észak-Amerika, Európa és Ázsia-Csendes-óceán.
  • Mikor kezdődik a hozzáférés? A szélesebb elérhetőség a következő hetekben indul, a teljes körű bevezetés pedig 2025 később várható.
  • Milyen munkafolyamatokra építették? Nagy áteresztőképességű inferencia LLM-ek, MoE-k, keresések, ajánlások, pénzügyek és tudományos számítástechnika számára.
  • Hogyan viszonyul a korábbi TPU-khoz? A Google 4× magasabb átviteli kapacitást és 2× jobb teljesítményt hivatkozik wattként a Trilliumhoz képest.
Címkék ebben a cikkben