Pinapagana ng
News

Google Inilunsad ang Ironwood TPU na may 9,216-Chip Pods at Liquid Cooling

Ang Google ay nagpapalabas ng Ironwood, ang ikapitong henerasyon ng Tensor Processing Unit, isang purpose-built artificial intelligence (AI) accelerator na tinuturing ng kumpanya bilang pinaka-advanced na nito—dinisenyo para sa efficient, at-scale inference at handang hamunin ang pangunguna ng Nvidia habang lumalawak ang pagiging available nito sa mga susunod na linggo.

ISINULAT NI
IBAHAGI
Google Inilunsad ang Ironwood TPU na may 9,216-Chip Pods at Liquid Cooling

Target ng Google’s Ironwood TPU ang Teritoryo ng Nvidia Kasama ang Pod-Scale FP8 Power

Ipinakita ng Google ang Ironwood sa Google Cloud Next ’25 noong Abril at ngayon ay pinalalawak ang access, itinuturing ang chip bilang custom silicon na nakatutok para sa “age of inference,” kung kailan inaasahang tumugon, magreson, at maggenerate ang mga modelo nang tunay na oras sa buong pandaigdigang mga rehiyon ng ulap.

Ayon sa isang ulat ng CNBC, ang hakbang na ito ay parte ng mas malawak na power play sa mga hyperscaler na nagkukumpetensiya para sa pagmamay-ari ng AI stack mula sa data center hanggang sa dev toolkit. Sa ilalim ng hood, inaasa ng Ironwood ang isang 3D torus interconnect, liquid cooling para sa patuloy na paggamit, at isang pinahusay na Sparsecore para mapabilis ang napakalaking embeddings para sa ranking, rekomendasyon, finance, at scientific computing.

Ito ay dinisenyo upang mabawasan ang paggalaw ng data at mga bottlenecks sa komunikasyon—dalawang sanhi na madalas na humahadlang sa throughput sa multi-chip na mga trabaho. Ang mga hilaw na numero ay idinisenyo upang magpapansin: hanggang 4,614 TFLOPs (FP8) bawat chip, 192 GB ng HBM na may 7.37 TB/s bandwidth, at 1.2 TB/s bidirectional inter-chip bandwidth. Ang mga pod ay maaaring mag-scale mula sa 256 chip hanggang sa isang 9,216-chip configuration na nag-aalok ng 42.5 exaflops (FP8) ng compute, na may buong-pod power draw na humigit-kumulang 10 MW at liquid cooling na nagbibigay-daan sa mas mataas na patuloy na performance kaysa sa air.

Sinasabi ng Google na ang Ironwood ay higit sa 4× na mas mabilis kaysa sa naunang Trillium (TPU v6) sa kabuuang AI throughput at nag-aalok ng humigit-kumulang 2× na mas mahusay na pagganap kada watt—habang naitala ang halos 30× ang power efficiency ng unang Cloud TPU mula 2018. Sa maxed-out na anyo, sinasabing may computational edge ang kumpanya higit sa mga nangungunang supercomputers tulad ng El Capitan kapag nasusukat sa FP8 exaflops. Tulad ng dati, ang metodolohiya ay mahalaga, ngunit malinaw ang layunin.

Bagamat ito ay maaaring mag-train, ang panukala ng Ironwood ay nakatuon sa inference para sa malalaking mga modelo ng wika at Mixture-of-Experts systems—eksaktong uri ng high-QPS, low-latency na trabaho na ngayon ay bumabaha sa mga data center mula sa Hilagang Amerika hanggang Europa at Asia-Pacific. Isipin ang chatbots, mga ahente, mga Gemini-class na modelo, at high-dimension na mga search at recsys pipeline na nangangailangan ng mabilis na memorya at mahigpit na pod-scale na synchronization.

Dumarating ang integrasyon sa pamamagitan ng Google Cloud’s AI Hypercomputer—pinagsasama ang hardware sa software tulad ng Pathways upang mag-orkestra ng distributed compute sa libu-libong dyes. Ang stack na iyon ay sinusuportahan na ang consumer at enterprise services mula sa Search hanggang Gmail, at pumapasok ang Ironwood bilang isang upgrade path para sa mga customer na gusto ng isang managed, TPU-native na ruta sa tabi ng GPUs.

Mayroon ding mensahe sa merkado na nakatago: hinahamon ng Google ang dominasyon ng Nvidia sa pamamagitan ng pagbibigay-diin na ang mga domain-specific TPUs ay maaaring mangibabaw sa mga general-purpose na GPUs sa presyo-performans at paggamit ng enerhiya para sa tiyak na mga AI na gawain. Ang ulat ng CNBC ay nagsasabing ang mga naunang gumagamit ay kabilang ang Anthropic, na nagpaplano ng mga deployment sa million-TPU scale para sa Claude—isang kamangha-manghang senyales kung gaano kalaki ang mga graph ng inference footprint.

Inilarawan ni Sundar Pichai, CEO ng Alphabet, ang demand bilang isang pangunahing revenue driver, nabanggit ang 34% pagtaas sa Google Cloud revenue sa $15.15 bilyon sa Q3 2025 at capex na nauugnay sa AI buildout na umaabot sa $93 bilyon. “Nakikita namin ang makabuluhang demand para sa aming AI infrastructure products… at namumuhunan kami upang makamit iyon,” sabi niya, habang binanggit na mas maraming billion-dollar deals ang nilagdaan ngayong taon kaysa sa pinagsama noong dalawang nakaraang taon.

Ang mas malawak na availability ng Ironwood ay nakatakdang ilabas huli ng 2025 sa pamamagitan ng Google Cloud, na may mga request para sa access na bukas na ngayon. Para sa mga enterprise sa U.S., Europa, at sa buong Asia-Pacific na tinatimbang ang mga budget sa kuryente, kapal ng rack, at target na latency, ang katanungan ay hindi gaano ukol sa hype kundi kung ang pod-scale na matematikang FP8 ng Ironwood at cooling profile ay tumutugma sa kanilang mga production workload.

FAQ ❓

  • Saan magiging available ang Ironwood? Sa pamamagitan ng Google Cloud sa mga pandaigdigang rehiyon, kabilang ang Hilagang Amerika, Europa, at Asia-Pacific.
  • Kailan magsisimula ang access? Ang mas malawak na availability ay magsisimula sa mga susunod na linggo, na may mas malawak na rollout paglaon ng 2025.
  • Para sa anong mga workload ito ginawa? Mataas na throughput na inference para sa LLMs, MoEs, search, rekomendasyon, finance, at scientific computing.
  • Paano ito ikinukumpara sa mga naunang TPUs? Binanggit ng Google na 4× mas mataas ang throughput at 2× mas mahusay na pagganap kada watt kaysa sa Trillium.
Mga tag sa kwentong ito