گوگل در حال معرفی آیرونوود، نسل هفتم واحد پردازش تانسور خود است، یک شتابدهنده هوش مصنوعی (AI) ساخته شده با هدف خاص که شرکت ادعا میکند پیشرفتهترین نسخهاش تاکنون است—ساخته شده برای استنتاج کارآمد و در مقیاس، و آماده برای رقابت با پیشگامی انویدیا با گسترش دسترسی در هفتههای آینده.
گوگل TPU آیرونوود را با پوستههای ۹٬۲۱۶-تراشهای و خنککاری مایع عرضه میکند.

هدف TPU آیرونوود گوگل مقابله با قلمرو انویدیا با قدرت Pod-Scale FP8 است
گوگل از آیرونوود در رویداد Google Cloud Next ’25 در آوریل رونمایی کرد و اکنون در حال گسترش دسترسی به آن است، موضعگیری تراشه به عنوان سیلیکون سفارشی برای “عصر استنتاج” انجام شده است، وقتی که مدلها انتظار میرود به صورت لحظهای پاسخ دهند، استدلال کنند و تولید کنند، در سراسر مناطق ابری جهانی.
طبق گزارش CNBC، این حرکت کاملاً در چهارچوب یک بازی قدرت گستردهتر از طرف شرکتهای هایپر اسکیلر قرار دارد که میخواهند از مرکز داده تا ابزارهای توسعهدهنده، مالک پشته هوش مصنوعی باشند. در زیر پوسته، آیرونوود بر روی یک ارتباط توروس 3D، خنککننده مایع برای بارهای پایدار، و هسته سكستریک بهبود یافته برای شتاببخش های فوقالعاده بزرگ ساخته شده برای رتبهبندی، توصیه، مالی و محاسبات علمی تکیه دارد.
این محصول طراحی شده است تا حرکت داده و گلوگاههای ارتباطی را مینیمم کند—دو عامل که اغلب باعث محدودیت در پخشآوری چند تراشهای میشوند. ارقام خام برای جلب توجه طراحی شدهاند: تا 4,614 ترافلاپس (FP8) در هر تراشه، 192 گیگابایت HBM با پهنای باند 7.37 ترابایت در ثانیه، و پهنای باند متقابل بینتراشهای 1.2 ترابایت در ثانیه. پادها از 256 تراشه تا یک پیکربندی 9,216 تراشه میتوانند با 42.5 اکزافلاپ (FP8) محاسبه ارائه دهند، با مصرف برق کامل پاد در حدود 10 مگاوات و خنککننده مایع عملکرد پایدار به مراتب بالاتری از خنککننده بادی امکان میدهد.
گوگل میگوید آیرونوود بیش از 4 برابر سریعتر از تریلیوم (TPU v6) در بازده کلی هوش مصنوعی عمل میکند و حدود 2 برابر عملکرد بهتری بر حسب مصرف انرژی ارائه میدهد—در حالی که تقریباً 30 برابر بهرهوری انرژی بیشتری نسبت به TPU ابری اول خود در سال 2018 دارد. در حالت کامل استفادهشده، شرکت ادعا میکند که در محاسبه نسبت به ابررایانههای برتر مانند ال کاپیتان هنگام اندازهگیری در اکزافلاپهای FP8، برتری دارد. مانند همیشه، روششناسی مهم است، اما هدف روشن است.
در حالی که میتواند آموزش دهد، مزیت آیرونوود بر استنتاج برای مدلهای زبان بزرگ و سیستمهای Mixture-of-Experts متمرکز است—بهخصوص کارهای با توان وظیفه بالا و تاخیر پایین که اکنون مراکز داده را از آمریکای شمالی تا اروپا و آسیا-اقیانوسیه پر کردهاند. تصور کنید چتباتها، عوامل، مدلهای کلاس جمنی، و خطوط پیپ لاین جستجو و توصیه با ابعاد بالا که نیاز به حافظه سریع و همگامسازی تنگاتنگ در مقیاس پاد دارند.
تلفیق از طریق ابررایانههای AI گوگل کلود محقق میشود—جفتسازی سختافزار با نرمافزاری مانند Pathways برای ترتیببندی محاسبات توزیعشده در هزاران دای. این پشته قبلاً از خدمات مصرفکننده و تجاری از جستجو تا جیمیل پشتیبانی میکند، و آیرونوود به عنوان مسیر ارتقا برای مشتریانی که میخواهند مسیری TPU-native و مدیریت شده در کنار GPUها بپیمایند، قرار دارد.
یک پیام بازاریابی درون آن نهفته است: گوگل با این ادعا که TPUهای حوزهخاص میتوانند در قیمت-عملکرد و مصرف انرژی برای برخی وظایف AI از GPUهای عمومی برتر باشند، برتری انویدیا را به چالش میکشد. گزارش CNBC میگوید اولین پذیرندگان شامل Anthropic هستند، که برنامهریزی شده است برای Claude در مقیاس میلیون TPU مستقر شوند—نشانهای که حاکی است چطور پاهای استنتاج در حال بزرگ شدن هستند.
ساندار پیچای، مدیرعامل آلفابت، تقاضا را به عنوان یک محرک کلیدی درآمد به تصویر کشید، با اشاره به افزایش 34٪ درآمد گوگل کلود به 15.15 میلیارد دلار در Q3 2025 و هزینه سرمایه مرتبط با ساخت AI به میزان 93 میلیارد دلار. “ما تقاضای قابل توجهی برای محصولات زیرساخت AI خود میبینیم… و ما در حال سرمایهگذاری هستیم تا به آن پاسخ دهیم،” وی گفت، اشاره کرد که معاملات میلیارد دلاری بیشتری امسال امضا شدهاند تا در دو سال گذشته به طور مشترک.
دسترسی گستردهتر به آیرونوود در اواخر 2025 از طریق گوگل کلود برنامهریزی شده است، و درخواستهای دسترسی هماکنون باز است. برای شرکتها در ایالات متحده، اروپا، و سرتاسر منطقه آسیا-اقیانوسیه که به بودجههای برق، تراکم رک، و اهداف تاخیر فکر میکنند، پرسش بیشتر درباره هیاهو نیست، بلکه درباره این است که آیا ریاضی FP8 در مقیاس پاد و پروفایل خنککننده آیرونوود با بار کارهای تولیدی آنها هماهنگی دارد یا خیر.
پرسشهای متداول ❓
- آیرونوود کجا موجود خواهد بود؟ از طریق گوگل کلود در مناطق جهانی، شامل آمریکای شمالی، اروپا و آسیا-اقیانوسیه.
- دسترسی از چه زمانی شروع میشود؟ دسترسی گستردهتر در هفتههای آتی شروع میشود، با گسترش بیشتر در اواخر 2025.
- برای چه بارهای کاری طراحی شده است؟ استنتاج با توان بالا برای LLMها، MoEها، جستجو، توصیهنامهها، مالی و محاسبات علمی.
- چگونه با TPUهای قبلی مقایسه میشود؟ گوگل اعلام میکند که بازدهی 4 برابری و عملکرد برولحظه به مصرف انرژی 2 برابری نسبت به تریلیوم ارائه میدهد.















