Obsługiwane przez
News

Google wprowadza Ironwood TPU z klastrami 9,216-chipowymi i chłodzeniem cieczą

Google wprowadza Ironwood, swój siódmej generacji procesor Tensor Processing Unit, specjalnie zaprojektowany akcelerator sztucznej inteligencji (AI), który firma określa jako najbardziej zaawansowany do tej pory—zapewniający wydajne, skalowalne wnioski i gotowy, by wyprzedzić Nvidię, gdy dostępność rozszerzy się w nadchodzących tygodniach.

NAPISAŁ
UDOSTĘPNIJ
Google wprowadza Ironwood TPU z klastrami 9,216-chipowymi i chłodzeniem cieczą

Ironwood TPU od Google-a atakuje teren Nvidii z mocą obliczeniową FP8 na poziomie całych klastrów

Google zaprezentowało Ironwood na Google Cloud Next ’25 w kwietniu i obecnie wprowadza szerszy dostęp, pozycjonując chip jako dostosowany układ krzemowy na “epokę wnioskowania,” gdy modele mają reagować, rozumować i generować w czasie rzeczywistym w globalnych regionach chmury.

Według raportu CNBC, ruch ten jest częścią szerszej strategii większych firm technologicznych, które ścigają się o posiadanie stosu AI od centrum danych po zestaw narzędzi deweloperskich. Wewnątrz Ironwood opiera się na połączeniu torusa 3D, chłodzeniu cieczą dla ciągłych obciążeń oraz usprawnionym Sparsecore, by przyspieszyć ultra-duże osadzenia dla rankingów, rekomendacji, finansów i obliczeń naukowych.

Został zaprojektowany, aby minimalizować ruchy danych i wąskie gardła komunikacyjne—dwie przyczyny często ograniczające przepustowość w zadaniach wymagających pracy wielu układów. Liczby robią wrażenie: do 4 614 TFLOPów (FP8) na chip, 192 GB HBM z przepustowością 7,37 TB/s i dwukierunkową przepustowością między układami 1,2 TB/s. Klastry skalują się od 256 chipów do konfiguracji z 9 216 chipami, dostarczającymi 42,5 eksaFLOPów (FP8) mocy obliczeniowej, przy pełnym poborze mocy około 10 MW, a chłodzenie cieczą umożliwia znacznie wyższą ciągłą wydajność niż powietrze.

Google twierdzi, że Ironwood jest ponad 4 razy szybszy niż poprzedni Trillium (TPU v6) w zakresie ogólnej przepustowości AI i oferuje około 2 razy lepszą wydajność na wat—przy prawie 30-krotnej wydajności energetycznej w porównaniu z pierwszym TP cloudowym z 2018 roku. W maksymalnej formie firma twierdzi, że ma przewagę obliczeniową nad najlepszymi superkomputerami jak El Capitan, gdy mierzymy w FP8 eksaFLOPach. Jak zwykle, metodyka ma znaczenie, ale intencja jest jasna.

Choć może trenować, oferta Ironwooda koncentruje się na wnioskowaniu dla dużych modeli językowych i systemów Mixture-of-Experts—dokładnie te prace o wysokiej częstotliwości zapytań, niskiej latencji przelewają się teraz przez centra danych z Ameryki Północnej do Europy i regionu Azji i Pacyfiku. Pomyśl o chatbotach, agentach, modelach klasy Gemini i pipeline’ach wyszukiwania o wysokiej wymiarowości i rekomendacjach, które wymagają szybkiej pamięci i ścisłej synchronizacji w skalach klastrów.

Integracja odbywa się poprzez AI Hypercomputer Google Cloud—łączący sprzęt z oprogramowaniem takim jak Pathways do organizacji rozproszonej mocy obliczeniowej na tysiącach układów. Ten stos już obsługuje usługi konsumenckie i korporacyjne od Search do Gmail, a Ironwood wpasowuje się jako ścieżka modernizacji dla klientów, którzy chcą zarządzanej, tpu-native drogi obok GPU.

Jest w tym zawarty przekaz rynkowy: Google kwestionuje dominację Nvidii twierdząc, że specyficzne dla domeny TPU mogą pokonać ogólnego przeznaczenia GPU pod względem ceny i zużycia energii w przypadku pewnych zadań AI. Raport CNBC mówi, że pierwszymi użytkownikami są Anthropic, które planuje wdrożenia na skalę miliona TPU dla Claude’a—to sygnał, jak duże są ślady wnioskowania.

Sundar Pichai, CEO Alphabetu, określił popyt jako kluczowy czynnik generujący przychody, odnosząc się do 34% wzrostu przychodów z Google Cloud do 15,15 miliarda dolarów w III kwartale 2025 roku oraz kapitałowych inwestycji związanych z budową AI na poziomie 93 miliardów dolarów. „Zauważamy znaczny popyt na nasze produkty infrastruktury AI… i inwestujemy, aby temu sprostać,” powiedział, zaznaczając że w tym roku podpisano więcej umów o wartości miliarda dolarów niż w poprzednich dwóch latach łącznie.

Szersza dostępność Ironwooda zaplanowana jest na późniejszy 2025 rok przez Google Cloud, z możliwością składania wniosków o dostęp już teraz. Dla przedsiębiorstw w USA, Europie i całej Azji-Pacyfiku rozważających budżety energetyczne, gęstość stojaków i cele opóźnień, pytanie dotyczy mniej hype’u, a bardziej tego, czy matematyka FP8 Ironwooda i profil chłodzenia składają się na ich produkcyjne obciążenia robocze.

FAQ ❓

  • Gdzie będzie dostępny Ironwood? Poprzez Google Cloud w globalnych regionach, w tym w Ameryce Północnej, Europie i Azji-Pacyfiku.
  • Kiedy zacznie się dostęp? Szersza dostępność rozpocznie się w nadchodzących tygodniach, a dalsze wdrożenie później w 2025 roku.
  • Dla jakich obciążeń jest zbudowany? Do wysokiej przepustowości wnioskowania dla dużych modeli językowych (LLM) i systemów MoE, wyszukiwania, rekomendacji, finansów i obliczeń naukowych.
  • Jak wypada on w porównaniu do poprzednich TPU? Google podaje, że jest 4× bardziej wydajny i oferuje 2× lepszą wydajność na wat niż Trillium.