Google, Tensor İşleme Birimi’nin (TPU) yedinci nesili Ironwood’u piyasaya sürüyor. Şirket, bu amaca özel yapay zeka (AI) hızlandırıcıyı şimdiye kadarki en gelişmiş olarak tanıtıyor. Ironwood, etkili, geniş ölçekte çıkarım için tasarlandı ve önümüzdeki haftalarda kullanılabilirlik arttıkça Nvidia’nın liderliğini zorlamak için hazır.
Google, Sıvı Soğutmalı 9.216 Çipli Podlarla Ironwood TPU'yu Piyasaya Sürüyor

Google’un Ironwood TPU’su, Nvidia’nın Alanını Pod-Ölçekli FP8 Gücü ile Hedefliyor
Google, Ironwood’u Nisan ayında Google Cloud Next ’25’te önizledi ve şimdi erişimi genişletiyor, bu çipi küresel bulut bölgelerinde modellerin gerçek zamanlı yanıt vermesi, muhakeme etmesi ve oluşturması beklenen “çıkarım çağı” için özel silikon olarak konumlandırıyor.
CNBC raporuna göre, bu hamle, hiper ölçekleyicilerin AI yığınının veri merkezinden geliştirici araç kitine kadar sahip olma yarışında daha geniş bir güç oyununa doğrudan dahil oluyor. Ironwood, kaputun altında, sıralama, öneri, finans ve bilimsel hesaplama için ultra büyük gömülü hızlandırmak adına geliştirilmiş bir Sparsecore, 3D torus bağlantısı ve sürdürülebilir yükler için sıvı soğutma üzerine dayanıyor.
Bu teknoloji, verilerin hareketini ve iletişim kısıtlamalarını minimize etmek için tasarlandı—genellikle çoklu çip görevlerinde verimi sınırlayan iki suçlu. Çıplak sayılar dikkat çekmek üzere tasarlandı: Çip başına 4.614 TFLOPs (FP8), 7.37 TB/s bant genişliği ile 192 GB HBM ve 1.2 TB/s çift yönlü çipler arası bant genişliği. Podlar, 256 çipten 9.216 çipli bir konfigürasyona kadar ölçeklenir ve 42.5 exaflops (FP8) hesaplama gücü sunar, tam pod güç tüketimi yaklaşık 10 MW civarındadır ve sıvı soğutma, hava soğutmasına kıyasla çok daha yüksek sürdürülebilir performans sağlar.
Google, Ironwood’un önceki Trillium (TPU v6) modeline göre toplam AI üretiminde 4 kat daha hızlı ve watt başına yaklaşık 2 kat daha iyi performans sunduğunu söylüyor—2018’deki ilk Cloud TPU’suna kıyasla neredeyse 30 kat daha fazla enerji verimliliği sağlıyor. Şirket, maksimum formda, FP8 exaflops üzerinde ölçüldüğünde El Capitan gibi en iyi süper bilgisayarlara karşı hesaplama avantajı iddia ediyor. Her zaman olduğu gibi, metodoloji önemlidir, ancak niyet açıktır.
Ironwood’un odak noktası eğitimden ziyade büyük dil modelleri ve Uzman Karışımları sistemleri için çıkarım üzerine odaklanıyor—tam da şu anda Kuzey Amerika’dan Avrupa ve Asya-Pasifik’e kadar veri merkezlerini dolduran yüksek-QPS (saniye başına soru sayısı), düşük gecikme süresi işleri düşünün. Hızlı bellek ve sıkı pod-ölçekli senkronizasyon gerektiren chatbot’lar, aracı yazılımlar, Gemini sınıfı modeller ve yüksek boyutlu arama ve öneri sistemleri hatlarını düşünün.
Entegrasyon, binlerce çip üzerinde dağıtılmış hesaplamayı düzenlemek için Pathways gibi yazılımlarla donanımı eşleştiren Google Cloud’un AI Süper Bilgisayarı üzerinden gerçekleşir. Bu yığın zaten Arama’dan Gmail’e kadar tüketici ve işletmelere yönelik hizmetleri destekler ve Ironwood, GPU’larla birlikte yönetilen, TPU-yerel bir yol isteyen müşteriler için bir yükseltme yolu olarak yer alır.
Burada pazara yönelik bir mesaj var: Google, belirli AI görevleri için fiyat-performans ve enerji kullanımı konusunda alan-ağırlıklı TPUs’ların genel amaçlı GPU’ları yenebileceğini iddia ederek Nvidia’nın hakimiyetine meydan okuyor. CNBC’nin raporu, erken benimseyenlerin Anthropic gibi şirketleri içerdiğini ve Claude için milyonlarca TPU ölçeğinde dağıtım planladıklarını belirtiyor—bu, çıkarım ayak izlerinin ne kadar büyük hale geldiğine dair dikkat çekici bir işaret.
Alphabet CEO’su Sundar Pichai, talebin önemli bir gelir getiricisi olarak çerçevelendiğini ve Google Cloud’un Q3 2025’te %34 artışla 15.15 milyar dolara ulaştığını ve AI inşasına bağlı sermaye harcamalarının toplamda 93 milyar dolara ulaştığını belirtti. “AI altyapı ürünlerimize yönelik büyük bir talep görüyoruz… ve bunu karşılamak için yatırım yapıyoruz,” dedi ve bu yıl geçmiş iki yıla kıyasla daha fazla milyar dolarlık anlaşma imzalandığını belirtti.
Ironwood’un geniş erişilebilirliği, Google Cloud üzerinden 2025’in ilerleyen döneminde planlanmış olup, erişim talepleri şu an açık. ABD, Avrupa ve Asya-Pasifik’te güç bütçelerini, raf yoğunluğunu ve gecikme hedeflerini değerlendiren işletmeler için soru, abartı değil, daha çok Ironwood’un pod-ölçekli FP8 matematiği ve soğutma profili ile üretim iş yüklerinin uyum gösterip göstermediği üzerine.
SSS ❓
- Ironwood nerede kullanılabilir olacak? Kuzey Amerika, Avrupa ve Asya-Pasifik dahil olmak üzere küresel bölgelerde Google Cloud aracılığıyla.
- Erişim ne zaman başlıyor? Geniş erişim önümüzdeki haftalarda başlıyor, daha geniş rollout ise 2025’in ilerleyen dönemlerinde.
- Hangi iş yükleri için inşa edildi? LLM’ler, MoE’ler, arama, öneriler, finans ve bilimsel hesaplama için yüksek verimli çıkarım.
- Önceki TPU’lara kıyasla nasıl bir performans sergiliyor? Google, Trillium’a göre 4× daha yüksek verimlilik ve watt başına 2× daha iyi performans sunduğunu belirtiyor.















