Inilulunsad ng Google ang Ironwood, ang ikapitong henerasyon ng Tensor Processing Unit nito, isang purpose-built artificial intelligence (AI) accelerator na tinuturing ng kumpanya bilang ang pinaka-advanced sa kasalukuyan—dinisenyo para sa mahusay, at-scale na inference at handang magpabagsak sa lead ng Nvidia habang lumalawak ang availability sa mga darating na linggo.
Inilunsad ng Google ang Ironwood TPU na May 9,216-Chip Pods at Liquid Cooling

Ang Ironwood TPU ng Google ay Target ang Teritoryo ng Nvidia na may Pod-Scale FP8 Power
Inilabas ng Google ang Ironwood sa Google Cloud Next ’25 noong Abril at ngayon ay pinalawak ang akses, inilagay ang chip bilang custom silicon na iniangkop para sa “age of inference,” kapag inaasahang tutugon, mangatwiran, at lilikha ang mga modelo sa totoong oras sa iba’t ibang pandaigdigang cloud regions.
Ayon sa ulat ng CNBC, ang hakbang ay bahagi ng mas malawak na power play sa mga hyperscaler na nag-uunahan upang makuha ang AI stack mula sa data center hanggang sa dev toolkit. Sa ilalim ng hood, ang Ironwood ay umaasa sa isang 3D torus interconnect, liquid cooling para sa patuloy na karga, at pinahusay na Sparsecore upang pabilisin ang ultra-large embeddings para sa ranking, rekomendasyon, pananalapi, at siyentipikong pag-compute.
Ito ay dinisenyo upang mabawasan ang data movement at mga bottleneck sa komunikasyon—dalawang salarin na madalas nagpapabagal sa throughput sa mga multi-chip na trabaho. Ang mga raw na numero ay dinisenyo upang makaakit ng atensyon: hanggang 4,614 TFLOPs (FP8) bawat chip, 192 GB ng HBM na may 7.37 TB/s bandwidth, at 1.2 TB/s bidirectional inter-chip bandwidth. Ang mga pod ay nag-e-scale mula 256 chips hanggang sa isang 9,216-chip configuration na nagdadala ng 42.5 exaflops (FP8) ng compute, na may full-pod power draw sa paligid ng 10 MW at ang liquid cooling ay nag-e-enable ng mas mataas na patuloy na pagganap kaysa sa hangin.
Sinasabi ng Google na ang Ironwood ay higit sa 4× mas mabilis kaysa sa naunang Trillium (TPU v6) sa kabuuang AI throughput at nag-aalok ng humigit-kumulang 2× mas mahusay na pagganap kada watt—habang nagrerekord ng halos 30× ang power efficiency ng unang Cloud TPU nito mula 2018. Sa maxed-out form, iginiit ng kumpanya ang computational edge laban sa mga nangungunang supercomputers tulad ng El Capitan kapag sinukat sa FP8 exaflops. Tulad ng dati, mahalaga ang metodolohiya, ngunit malinaw ang layunin.
Habang kaya nitong mag-train, ang pitch ng Ironwood ay nakatuon sa inference para sa malalaking language models at Mixture-of-Experts systems—eksaktong ang high-QPS, low-latency na trabaho na ngayon ay bumabaha sa mga data center mula Hilagang Amerika hanggang Europa at Asia-Pacific. Mag-isip ng chatbots, agents, Gemini-class models, at high-dimension search at recsys pipelines na nangangailangan ng mabilis na memorya at mahigpit na pod-scale sync.
Ang integrasyon ay darating sa pamamagitan ng AI Hypercomputer ng Google Cloud—pinagsasama ang hardware sa software tulad ng Pathways upang mai-orchestrate ang distributed compute sa libu-libong dies. Ang stack na iyon ay sinusuportahan na ang mga serbisyo ng consumer at enterprise mula Search hanggang Gmail, at ang Ironwood ay pumapasok bilang isang upgrade path para sa mga customer na nais ng managed, TPU-native na ruta kasama ang GPUs.
Mayroong mensaheng pangmerkado na nakasaad: Ang Google ay hinahamon ang dominasyon ng Nvidia sa pamamagitan ng pag-aargumento na ang domain-specific TPUs ay maaaring talunin ang general-purpose GPUs sa price-performance at paggamit ng enerhiya para sa ilang mga gawain sa AI. Sabi ng ulat ng CNBC, mga unang gumagamit ay kinabibilangan ng Anthropic, na nagpanukala ng mga deployment sa million-TPU scale para kay Claude—isang kamangha-manghang senyales ng gaano kalaki ang mga paa ng inference.
Inilarawan ni Alphabet CEO Sundar Pichai ang demand bilang isang pangunahing driver ng kita, na binanggit ang 34% pagtaas sa kita ng Google Cloud sa $15.15 bilyon sa Q3 2025 at capex na nauugnay sa AI buildout na umaabot sa kabuuang $93 bilyon. “Nakikita namin ang makabuluhang demand para sa aming mga produktong AI infraprasturktur… at kami ay nag-iinvest upang matugunan iyon,” sabi niya, binabanggit na mas maraming bilyong dolyar na deal ang nilagdaan ngayong taon kaysa sa pinagsama noong nakaraang dalawang taon.
Ang mas malawak na availability ng Ironwood ay nakatakdang sa huli ng 2025 sa pamamagitan ng Google Cloud, na may bukas na access requests ngayon. Para sa mga kumpanya sa U.S., Europa, at buong Asia-Pacific na tinataya ang power budgets, rack density, at latency targets, ang tanong ay hindi gaano tungkol sa hype kundi kung ang pod-scale FP8 math at cooling profile ng Ironwood ay akma sa kanilang production workloads.
FAQ ❓
- Saan magiging available ang Ironwood? Sa pamamagitan ng Google Cloud sa mga pandaigdigang rehiyon, kabilang ang Hilagang Amerika, Europa, at Asia-Pacific.
- Kailan magsisimula ang akses? Ang mas malawak na availability ay magsisimula sa mga darating na linggo, na may mas malawak na paglulunsad sa huli ng 2025.
- Para sa anong mga workload ito dinisenyo? Mataas na throughput inference para sa LLMs, MoEs, search, rekomendasyon, pananalapi, at siyentipikong pag-compute.
- Paano ito ikinumpara sa mga naunang TPU? Inireport ng Google ang 4× mataas na throughput at 2× mas mahusay na pagganap kada watt kaysa Trillium.















