גוגל משיקה את Ironwood, יחידת העיבוד לטנזור מהדור השביעי, מאיץ בינה מלאכותית (AI) ייחודי שהחברה מדגישה כמתקדם ביותר עד כה – נבנה לשם הסקת מסקנות יעילה בקנה מידה, מוכן לדחוק את היתרון של Nvidia ככל שהזמינות מתרחבת בשבועות הקרובים.
Google משיקה את Ironwood TPU עם מערכות של 9,216 שבבים וקירור נוזלי

יחידת ה-TPU Ironwood של גוגל מכוונת למגרש של Nvidia עם עוצמה בקנה מידה של Pod FP8
גוגל הציגה את Ironwood ב-Google Cloud Next ’25 באפריל ועכשיו מרחיבה את הגישה, ממקמת את השבב כסיליקון מותאם אישי לוויסות ל”עידן ההסקה”, כשהמודלים מצופים להגיב, להפעיל הסקה וליצור בזמן אמת ברחבי אזורי הענן הגלובליים.
לפי דיווח של CNBC, המהלך משתלב ישירות בתוך משחק כוח רחב יותר בין ספקיות כוח עוצמתיות המתחרות לשלוט בערכת ה-AI ממרכזי הנתונים ועד ערכות הכלים לפיתוח. מאחורי הקלעים, Ironwood נשען על חיבור 3D torus, קירור נוזלים לעומסים מתמשכים וליבה חלקית משופרת להאצת הדבקות אולטרה-גדולות לסדר המרה, המלצות, כלכלה ומחשוב מדעי.
זהו מתוכנן למזער תנועת נתונים ומחסומים בתקשורת — שני גורמים שלא פעם מגבילים את התפוקה בעבודות מרובות שבבים. המספרים הגולמיים נבנו כדי למשוך תשומת לב: עד 4,614 TFLOPs (FP8) לכל שבב, 192 GB של HBM עם רוחב פס של 7.37 TB/s, ורוחב פס דו-כיווני בין שבבים של 1.2 TB/s. Pod-ים נבנים מ-256 שבבים ועד 9,216 שבבים המייצרים 42.5 אקזפלופים (FP8) של עיבוד, עם משיכת חשמל מלאה של Pod סביב 10 MW והקירור הנוזלי מאפשר ביצועים מתמשכים הרבה יותר גבוהים מאוויר.
גוגל טוענת ש-Ironwood מהיר יותר פי 4 מסה”כ הקודם Trillium (TPU v6) בתפוקת ה-AI הכוללת ומציע ביצועים טובים יותר בערך פי 2 לכל וואט – תוך שעון על כמעט פי 30 היעילות החשמלית מיחידת ה-Cloud TPU הראשונה שלה מ-2018. כאשר הוא מוגדר בצורה מיטבית, החברה טוענת שיש לו יתרון חישובי על פני מחשבי-על כמו El Capitan כשהם נמדדים באקזפלופים של FP8. כמו תמיד, המתודולוגיה חשובה, אך הכוונה ברורה.
בעוד שהוא יכול לאמן, ההצעת Ironwood מתמקדת בהסקה עבור מודלים של שפה גדולה ומערכות Mixture-of-Experts — בדיוק העבודה עם QPS גבוהה והשיהוי הנמוך שמעמיסה כעת על מרכזי הנתונים מצפון אמריקה לאירופה ואסיה-פאסיפיק. חשבו על צ’אטבוטים, סוכנים, מודלי Gemini ומערכות חיפוש והכרות ברמת דיוק גבוהה שדורשים זיכרון מהיר וסנכרון פּוֹד-סקייל חזק.
האינטגרציה מגיעה דרך המחשב-העל AI של Google Cloud — ומשלבת את החומרה עם תוכנות כמו Pathways לתזמור חישוב מבוזר על פני אלפי ליבות. ערכת הכלים הזו כבר תומכת בשירותים לצרכנים ועסקים כמו חיפוש ו-Gmail, ו-Ironwood משתלב כנתיב שדרוג ללקוחות שרוצים מסלול מנוהל, Native ל-TPU בנוסף ל-GPUs.
יש כאן מסר לשוק: גוגל קוראת תגר על הדומיננטיות של Nvidia על ידי טענה ש-TPUs ייעודיים יתחרו על GPUs לכל מטרה בהתאם למחיר-ביצועים ושימוש באנרגיה למשימות AI מסוימות. דיווח של CNBC אומר כי מקבלים ראשונים כוללים את Anthropic, אשר מתכננת פריסות במיליוני TPU עבור Claude — סימן מרשים של כמה גדולות הופכות עקבות ההסקה.
מנכ”ל Alphabet, סונדאר פיצ’אי, הציב את הביקוש ככושר הכנסה מרכזי, והציג עלייה של 34% בהכנסות Google Cloud ל-15.15 מיליארד דולר ברבעון השלישי של 2025 והוצאות הון הקשורות להטמעת AI בסך 93 מיליארד דולר. “אנחנו רואים ביקוש משמעותי למוצרי תשתיות ה-AI שלנו… ואנחנו משקיעים כדי להיפגש עם הביקוש הזה”, הוא אמר, והבהיר שיותר עסקאות בעלות ערך מיליארדי ירדן נחתמו השנה מהשנים הקודמות יחד.
הזמינות הרחבה יותר של Ironwood מתוכננת לסוף 2025 דרך Cloud של Google, עם בקשות גישה פתוחות כעת. עבור ארגונים בארה”ב, אירופה ובאסיה-פאסיפיק השוקלים תקציבי כוח, צפיפות מדף ומדדי השיהוי, השאלה היא פחות לגבי ההייפ ויותר האם מתמטיקת Pod-סקייל FP8 ופרופיל הקירור של Ironwood מתיישרים עם עומסי העבודה הייצוריים שלהם.
שאלות נפוצות ❓
- איפה Ironwood יהיה זמין? דרך Google Cloud באזורים גלובליים, כולל צפון אמריקה, אירופה ואסיה-פאסיפיק.
- מתי מתחילה הגישה? זמינות רחבה יותר מתחילה בשבועות הקרובים, עם פריסה רחבה יותר מאוחר יותר ב-2025.
- עבור איזה עומסי עבודה הוא נבנה? הסקה מהירה עבור LLMs, MoEs, חיפוש, המלצות, כלכלה ומחשוב מדעי.
- כיצד הוא משווה ל-TPUs הקודמים? גוגל מציינת תפוקה גבוהה פי 4 וביצועים טובים פי 2 לכל וואט מה-Trillium.















