Google sedang meluncurkan Ironwood, Generasi Ketujuh dari Tensor Processing Unit, akselerator kecerdasan buatan (AI) yang dirancang khusus dan diakui oleh perusahaan sebagai yang paling canggih—dibangun untuk inferensi yang efisien dalam skala besar dan siap untuk menantang keunggulan Nvidia seiring dengan berkembangnya ketersediaan dalam beberapa minggu ke depan.
Google Meluncurkan TPU Ironwood Dengan Pod 9.216-Chip dan Pendingin Cairan

Ironwood TPU dari Google Menargetkan Dominasi Nvidia dengan Kekuatan Pod-Scale FP8
Google mempratinjau Ironwood di Google Cloud Next ’25 pada bulan April dan sekarang memperluas akses, memposisikan chip ini sebagai silikon khusus yang disesuaikan untuk “era inferensi,” di mana model diharapkan dapat merespons, bernalar, dan menghasilkan secara real-time di seluruh kawasan cloud global.
Menurut laporan CNBC, langkah ini sepenuhnya melibatkan strategi kekuatan yang lebih luas di antara para penyedia layanan hyperscale yang berlomba untuk menguasai tumpukan AI dari pusat data hingga perangkat pengembang. Di balik layar, Ironwood memanfaatkan interkoneksi 3D torus, pendinginan cairan untuk beban berkelanjutan, dan Sparsecore yang ditingkatkan untuk mempercepat embedding ultra-besar untuk peringkat, rekomendasi, keuangan, dan komputasi ilmiah.
Chip ini dirancang untuk meminimalkan pergerakan data dan kemacetan komunikasi—dua penyebab yang sering membatasi throughput dalam tugas multi-chip. Angka mentahnya memang dirancang untuk menarik perhatian: hingga 4,614 TFLOPs (FP8) per chip, 192 GB HBM dengan bandwidth 7.37 TB/s, dan bandwidth bidirectional antar-chip sebesar 1.2 TB/s. Pod dapat diskalakan dari 256 chip hingga konfigurasi 9.216 chip yang menyajikan 42.5 exaFLOPs (FP8) dari komputasi, dengan daya total sekitar 10 MW dan pendinginan cairan memungkinkan kinerja berkelanjutan yang jauh lebih tinggi daripada pendinginan udara.
Google mengatakan Ironwood lebih dari 4× lebih cepat dari Trillium (TPU v6) sebelumnya dalam throughput AI keseluruhan dan menawarkan kinerja per watt yang kira-kira 2× lebih baik—sementara mencapai efisiensi daya hampir 30× dari TPU Cloud pertamanya pada tahun 2018. Dalam bentuk maksimalnya, perusahaan mengklaim keunggulan komputasional dibanding superkomputer teratas seperti El Capitan ketika diukur pada skala FP8 exaFLOPs. Seperti biasa, metodologi tetap penting, tetapi niatnya jelas.
Meskipun dapat melatih, penawaran Ironwood berfokus pada inferensi untuk model bahasa besar dan sistem Mixture-of-Experts—tepat untuk pekerjaan berkinerja tinggi dengan latensi rendah yang kini membanjiri pusat data dari Amerika Utara hingga Eropa dan Asia-Pasifik. Pikirkan chatbots, agen, model kelas Gemini, dan pipeline pencarian dan rekomen dimensi tinggi yang memerlukan memori cepat dan sinkronisasi skala pod yang ketat.
Integrasi datang melalui AI Hypercomputer dari Google Cloud—memadukan perangkat keras dengan perangkat lunak seperti Pathways untuk mengatur komputasi terdistribusi di seluruh ribuan dies. Stack ini sudah mendukung layanan konsumen dan perusahaan dari Search hingga Gmail, dan Ironwood menjadi jalur peningkatan bagi pelanggan yang menginginkan rute TPU-native terkelola bersama GPU.
Ada pesan pasar yang tertanam: Google menantang dominasi Nvidia dengan menyatakan bahwa TPU spesifik domain dapat mengalahkan GPU tujuan umum dalam hal harga-kinerja dan penggunaan energi untuk tugas AI tertentu. Laporan CNBC mengatakan pengguna awal termasuk Anthropic, yang berencana melakukan penerapan pada skala satu juta TPU untuk Claude—sinyal mengejutkan tentang seberapa besar jejak inferensi yang sedang berkembang.
CEO Alphabet Sundar Pichai menggambarkan permintaan sebagai pendorong pendapatan utama, mengutip lonjakan pendapatan Google Cloud sebesar 34% menjadi $15.15 miliar pada Q3 2025 dan capex yang terkait dengan pembangunan AI yang mencapai $93 miliar. “Kami melihat permintaan yang substansial untuk produk infrastruktur AI kami… dan kami berinvestasi untuk memenuhinya,” katanya, mencatat lebih banyak kesepakatan bernilai miliaran dolar ditandatangani tahun ini dibandingkan dengan dua tahun sebelumnya digabungkan.
Ketersediaan Ironwood yang lebih luas dijadwalkan pada akhir 2025 melalui Google Cloud, dengan permintaan akses terbuka sekarang. Bagi perusahaan di AS, Eropa, dan seluruh Asia-Pasifik yang mempertimbangkan anggaran daya, kepadatan rak, dan target latensi, pertanyaannya bukan tentang hype tetapi lebih tentang apakah profil matematika FP8 skala pod dan pendinginan Ironwood selaras dengan beban kerja produksi mereka.
FAQ ❓
- Di mana Ironwood akan tersedia? Melalui Google Cloud di wilayah global, termasuk Amerika Utara, Eropa, dan Asia-Pasifik.
- Kapan akses dimulai? Ketersediaan lebih luas akan dimulai dalam beberapa minggu ke depan, dengan peluncuran lebih luas pada akhir 2025.
- Pekerjaan apa yang dirancang untuk itu? Inferensi dengan throughput tinggi untuk LLMs, MoEs, pencarian, rekomendasi, keuangan, dan komputasi ilmiah.
- Bagaimana perbandingannya dengan TPU sebelumnya? Google menyatakan throughput 4× lebih tinggi dan kinerja per watt 2× lebih baik dari Trillium.









