Oferit de
News

Google lansează Ironwood TPU cu module de 9.216 cipuri și răcire lichidă

Google lansează Ironwood, a șaptea generație a unității sale de procesare Tensor, un accelerator de inteligență artificială (AI) special conceput pe care compania îl numește cel mai avansat de până acum, construit pentru inferență eficientă, la scară, și gata să conteste dominația Nvidia pe măsură ce disponibilitatea se extinde în săptămânile următoare.

SCRIS DE
DISTRIBUIE
Google lansează Ironwood TPU cu module de 9.216 cipuri și răcire lichidă

TPU-ul Ironwood de la Google țintește teritoriul Nvidia cu puterea FP8 la nivel de Pod

Google a prezentat Ironwood la Google Cloud Next ’25 în aprilie și acum extinde accesul, poziționând cipul ca un siliciu personalizat ajustat pentru „era inferenței,” când modelele se așteaptă să răspundă, să raționeze și să genereze în timp real în regiunile cloud globale.

Conform unui raport CNBC, mișcarea se încadrează perfect într-un joc de putere mai amplu între hyperscalers care se luptă să dețină stiva de AI de la centrul de date la kitul de dezvoltare. Sub capotă, Ironwood se bazează pe un interconect 3D toroidal, răcire lichidă pentru sarcini susținute și un Sparsecore îmbunătățit pentru a accelera embeddings ultra-mari pentru clasament, recomandări, finanțe și calcul științific.

Este proiectat pentru a minimiza mișcarea datelor și blocajele de comunicare—două curele care deseori limitează randamentul în sarcinile multi-cip. Cifrele brute sunt concepute pentru a atrage atenția: până la 4.614 TFLOPs (FP8) per cip, 192 GB de HBM cu o lățime de bandă de 7,37 TB/s și o lățime de bandă bidirecțională între cipuri de 1,2 TB/s. Podurile se extind de la 256 de cipuri la o configurație de 9.216 cipuri care oferă 42,5 exaflops (FP8) de calcul, cu un consum total de energie al unui pod complet de aproximativ 10 MW și răcirea cu lichid permite performanțe sustenabile semnificativ mai mari decât aerul.

Google spune că Ironwood este de peste 4× mai rapid decât Trillium (TPU v6) anterior în randamentul general AI și oferă aproximativ 2× mai bună performanță per watt—în timp ce rulează aproape 30× eficiența energetică a primului său Cloud TPU din 2018. În forma sa completă, compania susține un avantaj computațional asupra supercomputerelor de top precum El Capitan atunci când este măsurat la exaflops FP8. Ca întotdeauna, metodologia contează, dar intenția este clară.

Deși poate antrena, oferta Ironwood se concentrează pe inferența pentru modelele de limbaj mari și sistemele Mixture-of-Experts—exact munca de mare QPS, cu latență scăzută care inunda acum centrele de date din America de Nord până în Europa și Asia-Pacific. Gândiți-vă la chatboturi, agenți, modele tip Gemini și conducte de căutare și recsys de dimensiuni mari care necesită memorie rapidă și sincronizare strânsă la nivel de pod.

Integrarea ajunge prin AI Hypercomputer de la Google Cloud—așezând hardware-ul cu software precum Pathways pentru a orchestra calculul distribuit pe mii de matrițe. Această stivă susține deja servicii pentru consumatori și întreprinderi, de la Search la Gmail, iar Ironwood se încadrează ca o cale de actualizare pentru clienții care doresc o rută administrată, nativă TPU alături de GPU-uri.

Există un mesaj de piață inclus: Google provoacă dominația Nvidia argumentând că TPU-urile specifice domeniului pot depăși GPU-urile cu scop general în ceea ce privește prețul-performanță și utilizarea energiei pentru anumite sarcini AI. Raportul CNBC spune că primii utilizatori includ Anthropic, care planifică implementări la scară de milioane de TPU pentru Claude—un semnal surprinzător de ridicare a cât de mari devin amprentele inferenței.

CEO-ul Alphabet Sundar Pichai a prezentat cererea drept un factor cheie de venituri, menționând o creștere de 34% a veniturilor Google Cloud la 15,15 miliarde de dolari în T3 2025 și cheltuielile de capital legate de extinderea AI totalizând 93 de miliarde de dolari. „Vedem o cerere substanțială pentru produsele noastre de infrastructură AI… și investim pentru a o satisface,” a spus el, observând că anul acesta au fost semnate mai multe acorduri miliardare decât în cei doi ani anteriori combinați.

Disponibilitatea mai largă a Ironwood este programată pentru sfârșitul anului 2025 prin Google Cloud, cu cereri de acces deschise acum. Pentru întreprinderile din SUA, Europa și în Asia-Pacific care cântăresc bugetele de energie, densitatea rack-ului și obiectivele de latență, întrebarea este mai puțin despre hype și mai mult despre dacă profilul matematic FP8 la scară de pod al Ironwood și profilul de răcire se aliniază cu sarcinile lor de producție.

FAQ ❓

  • Unde va fi disponibil Ironwood? Prin Google Cloud în regiunile globale, inclusiv America de Nord, Europa și Asia-Pacific.
  • Când începe accesul? Disponibilitatea mai largă începe în săptămânile următoare, cu extindere mai amplă târziu în 2025.
  • Pentru ce sarcini de lucru este construit? Inferență cu randament ridicat pentru LLM, MoE, căutare, recomandări, finanțe și calcul științific.
  • Cum se compară cu TPU-urile anterioare? Google menționează un randament cu 4× mai mare și o performanță pe watt de 2× mai bună decât Trillium.
Etichete în această poveste