Google запускає Ironwood, свій сьомий генератор Tensor Processing Unit, спеціалізований прискорювач штучного інтелекту (AI), який компанія рекламує як свій найсучасніший — створений для ефективного масштабного інферування та готовий кинути виклик лідерству Nvidia, коли доступність розширюється в найближчі тижні.
Google випускає Ironwood TPU з капсулами на 9 216 чипів і рідинним охолодженням

Google’s Ironwood TPU націлений на територію Nvidia з потоковою потужністю FP8
Google попередньо представила Ironwood на Google Cloud Next ’25 у квітні й тепер розширює доступ, позиціонуючи чіп як спеціалізований кремній, налаштований для «епохи інферування», коли моделі повинні відповідати, аргументувати й генерувати в режимі реального часу по всіх глобальних регіонах хмари.
Згідно з звіт CNBC, цей крок є частиною широкої гри сил серед гіпермасштабувальників, які змагаються за володіння стеком AI від центрів обробки даних до інструментарію розробки. Під капотом Ironwood спирається на 3D тороїдне з’єднання, рідинне охолодження для постійних навантажень та поліпшену Sparsecore для прискорення великих вбудувань для ранжування, рекомендацій, фінансів та наукових обчислень.
Він спроектований для мінімізації руху даних і вузьких місць у комунікації — двох винуватців, які часто обмежують пропускну здатність в багаточипових завданнях. Сирові дані розроблені для привертання уваги: до 4,614 TFLOP (FP8) на чіп, 192 ГБ HBM з пропускною здатністю 7.37 ТБ/с і двонаправленою пропускною здатністю між чіпами 1.2 ТБ/с. Система може масштабуватися від 256 чіпів до конфігурації на 9,216 чіпів, яка забезпечує 42.5 ексафлопс (FP8) обчислень, з повною потужністю підключення близько 10 МВт, а рідинне охолодження дозволяє значно вищу стійку продуктивність, ніж повітря.
Google стверджує, що Ironwood більш ніж у 4 рази швидше колишнього Trillium (TPU v6) в загальній пропускній здатності AI та пропонує приблизно 2 рази кращу продуктивність на ватт, при цьому забезпечуючи майже у 30 разів енергетичну ефективність в порівнянні з першою хмарною TPU з 2018 року. У максимальній формі компанія заявляє про обчислювальну перевагу над топовими суперкомп’ютерами, такими як El Capitan, коли їх вимірюють у ексафлопах FP8. Як завжди, методологія має значення, але намір зрозумілий.
Хоча він може тренувати, презентація Ironwood зосереджена на інферуванні для великих мовних моделей і систем Mixture-of-Experts — саме та високошвидкісна, з низькою затримкою робота, яка зараз заповнює центри обробки даних від Північної Америки до Європи та Азії-Тихоокеанського регіону. Уявіть собі чат-ботів, агентів, моделі класу Gemini та високовимірні пошукові та рекомендаційні системи, які вимагають швидкої пам’яті та щільної синхронізації масштабів.
Інтеграція здійснюється через AI Hypercomputer Google Cloud — поєднання обладнання з програмним забезпеченням, таким як Pathways, для організації розподілених обчислень по тисячах мікросхем. Цей стек вже підтримує споживчі та корпоративні сервіси від Пошуку до Gmail, і Ironwood виходить як шлях оновлення для клієнтів, які хочуть керований, TPU-нативний маршрут поряд з GPU.
У цьому є ринкове повідомлення: Google кидає виклик домінуванню Nvidia, стверджуючи, що специфічні для домену TPU можуть перевершити універсальні GPU з точки зору ціни-продуктивності та енергоспоживання для певних завдань AI. У звіті CNBC йдеться, що ранні користувачі включають Anthropic, яка планує розгортання на мільйон-TPU масштабу для Claude — сигнал, який змушує замислитись, наскільки великі стають завдання інферування.
Генеральний директор Alphabet Сундар Пічаї вказав на попит як ключовий драйвер доходу, зазначивши 34% зростання виручки Google Cloud до $15.15 мільярда у третьому кварталі 2025 року та капітальні витрати, пов’язані з розширенням AI, у розмірі $93 мільярда. “Ми спостерігаємо значний попит на наші інфраструктурні продукти AI… і ми інвестуємо, щоб задовольнити цей попит”, — сказав він, зазначаючи, що цього року було підписано більше багатомільярдних угод, ніж за два попередніх разом узятих.
Ширша доступність Ironwood запланована на кінець 2025 року через Google Cloud, з можливістю запитів доступу вже зараз. Для підприємств у США, Європі та по всій Азії-Тихоокеанському регіону, які оцінюють енергетичні витрати, щільність стійок і цільові показники затримки, питання не стільки про рекламу, скільки про те, чи відповідає Ironwood з потоковою математикою FP8 і профілем охолодження їхнім виробничим навантаженням.
ЧаПи ❓
- Де буде доступний Ironwood? Через Google Cloud у глобальних регіонах, включаючи Північну Америку, Європу та Азію-Тихоокеанський регіон.
- Коли починається доступ? Ширша доступність розпочнеться в найближчі тижні, з подальшим розширенням у 2025 році.
- Для яких завантажень він розроблений? Високопродуктивне інферування для LLM, MoE, пошуку, рекомендацій, фінансів та наукових обчислень.
- Як він порівнюється з попередніми TPU? Google наводить у 4 рази вищу пропускну здатність і у 2 рази кращу продуктивність на ватт у порівнянні з Trillium.















