Google กำลังเปิดตัว Ironwood ซึ่งเป็นหน่วยประมวลผล Tensor รุ่นที่เจ็ดของบริษัท ซึ่งเป็นตัวเร่งความเร็วปัญญาประดิษฐ์ (AI) ที่สร้างขึ้นโดยเฉพาะ ซึ่งบริษัทกล่าวว่าเป็นระบบที่ทันสมัยที่สุด สร้างขึ้นเพื่อการ suyuceffect ใ(อปริมาณมาก) และเตรียมพร้อมที่จะช่วยแซงหน้าของ Nvidia เมื่อการเข้าถึงเพิ่มขึ้นในสัปดาห์ที่จะถึงนี้
Google เปิดตัว Ironwood TPU พร้อมโพดชิป 9,216 ตัวและระบบระบายความร้อนด้วยของเหลว

Ironwood TPU ของ Google มุ่งเป้าไปที่ Nvidia ด้วยพลัง FP8 ขนาด Pod-Scale
Google ได้นำเสนอ Ironwood ที่ Google Cloud Next ’25 ในเดือนเมษายนและกำลังขยายการเข้าถึง โดยมองชิปเป็นซิลิคอนที่ปรับเปลี่ยนมาเฉพาะสำหรับ “ยุคของการ suyuceference” เมื่อโมเดลต่างๆ คาดว่าจะตอบสนอง ให้เหตุผล และสร้างขึ้นในเวลาจริงทั่วทั้งภูมิภาคคราวด์ของโลก
ตามรายงานของ CNBC พบว่าขั้นตอนนี้เข้าสู่การเล่นพลังทางยุทธศาสตร์ที่กว้างขึ้นในหมู่ผู้นำระดับสัมพันธ์ที่แข่งขันกันเพื่อที่จะครอบครองชุด AI ตั้งแต่ศูนย์ข้อมูลไปจนถึงเครื่องมือพัฒนาซอฟต์แวร์ ที่ด้านหลัง ไอออนวูดพึ่งพาการเชื่อมต่อโทระ 3 มิติ, ของเหลวที่เย็นเพื่อรับน้ำหนักที่ก้าวหน้า, และการเร่งความเร็วให้กับการฝังตัวขนาดใหญ่พิเศษสำหรับการจัดอันดับ, การแนะนำ, การเงิน, และการคำนวณทางวิทยาศาสตร์
มันถูกออกแบบมาเพื่อลดการเคลื่อนไหวของข้อมูลและคอขวดการสื่อสาร—สองตัวที่มักจำกัด throughput ในงานหลายชิป ตัวเลขดิบออกแบบมาเพื่อให้หัวหมุน: สูงสุด 4,614 TFLOPs (FP8) ต่อชิป, หน่วยความจำ HBM 192 GB พร้อมแบนด์วิธ 7.37 TB/s และแบนด์วิธที่เชื่อมต่อระหว่างชิปสองครั้ง 1.2 TB/s ระบบร่วมพ็อดสามารถขยายจาก 256 ชิปไปยังการกำหนดค่าชิป 9,216 ชิปที่ให้คำนวณได้ถึง 42.5 exaflops (FP8) พร้อมกับการใช้พลังงานเต็มพ็อดประมาณ 10 MW และระบบเพลาเหลวที่ช่วยให้ประสิทธิภาพที่ยั่งยืนสูงขึ้นอย่างมีนัยสำคัญกว่าเจลอากาศ
Google กล่าวว่า Ironwood เร็วขึ้นกว่าเดิมได้มากกว่า 4× กว่าหน่วยประมวลผล Trillium (TPU v6) ในอัตราผลผลิต AI โดยรวมและเสนอประสิทธิภาพต่อวัตต์ที่ดีขึ้นประมาณ 2×—ขณะที่ให้ประสิทธิภาพการใช้พลังงานเกือบ 30× มากกว่าสิ่งที่ได้รับจาก Cloud TPU แรกในปี 2018 ในแบบเต็มพอ คุณบอกว่าเธอพยายามที่จะให้verg vak ฟะมีความประสิทธิภาพเชิงคอมพิวเตชันมากกว่าเอลาครอที่วัดใน FP8 exaflops อย่างไรก็ตาม วิธีการมีความสำคัญ แต่เจตจำนั้นชัดเจน
แม้ว่าสามารถทำการสอนได้ ข้อเสนอของ Ironwood เน้นที่การ suyuceference สำหรับโมเดลภาษาใหญ่และระบบ Mixture-of-Experts ซึ่งเป็นงาน QPS สูงและการตอบสนองรวดเร็วที่กำลังไหลบ่าเข้าสู่ศูนย์ข้อมูลจากอเมริกาเหนือถึงยุโรปและทางเอเชียแปซิฟิก นึกถึงแชทบอท, ตัวแทน, โมเดลชั้น Gemini, และระบบการค้นหาและการแนะนำสินค้าขนาดสูงที่จำเป็นต้องใช้หน่วยความจำเร็วและการซิงค์พ็อดเสมือนที่แน่นหนา
การรวมตัวมาถึงผ่านซูเปอร์คอมพิวเตอร์ AI ของ Google Cloud—ที่จับคู่ฮาร์ดแวร์กับซอฟต์แวร์เช่น Pathways เพื่อจัดการคอมพิวเตอร์แบบกระจายผ่านตัวประมวลผลนับพัน ตัวชุดซึ่งช่วยสนับสนุนบริการจากผู้บริโภคและองค์กรจาก Search ถึง Gmail และ Ironwood เข้าสู่ทางเลือกการอัปเกรดสำหรับลูกค้าที่ต้องการเส้นทางที่มีการจัดการซึ่งมาจาก GPU
มีข้อความทางการตลาดอยู่ในแนวหน้า: Google กำลังท้าทายความเป็นเหนือของ Nvidia โดยอ้างว่าจะใช้ TPUs ที่เฉพาะกลุ่มดีกว่า GPU ประโยชน์รอบทั่วไปในด้านราคา-ประสิทธิภาพและการใช้พลังงานสำหรับภารกิจ AI บางอย่าง รายงานของ CNBC กล่าวว่าแพลนเดิมรวมถึงAnthropic ซึ่งวางแผนการปรับใช้ในระดับล้าน TPU สำหรับ Claude—สัญญาณที่น่าตกใจว่าเท้าทั้งาง่ายของ inference จะใหญ่เพียงใด
Sundar Pichai CEO ของ Alphabet มองว่าความต้องการเป็นตัวขับเคลื่อนรายได้สำคัญ โดยระบุว่า Google Cloud มีรายได้เพิ่มขึ้น 34% เป็น 15.15 พันล้านดอลลาร์ในไตรมาสที่ 3 ปี 2025 และ capex ที่เกี่ยวข้องกับการสร้าง AI รวม 93 พันล้านดอลลาร์ “เราเห็นความต้องการที่สำคัญสำหรับผลิตภัณฑ์โครงสร้างพื้นฐาน AI ของเรา… และเรากำลังลงทุนเพื่อให้บรรลุเป้าหมายนั้น” เขากล่าว โดยระบุว่าสามารถลงนามในข้อตกลงมูลค่าพันล้านดอลลาร์ในปีนี้ได้มากกว่าสองครั้งในปีที่แล้ว
การมี Ironwood ในวงกว้างมีแผนที่จะมีขึ้นในภายหลังในปี 2025 ผ่านทางGoogle Cloud โดยการร้องขอการเข้าถึงเปิดอยู่ขณะนี้ สำหรับองค์กรในสหรัฐอเมริกา, ยุโรป, และข้ามเอเชียแปซิฟิกที่ชั่งน้ำหนักงบประมาณพลังงาน, ความหนาแน่นของชั้นวาง, และเป้าหมายความหน่วง การนำเสนอของ Ironwood ที่ใช้คณิตศาสตร์ FP8 ขนาดพ็อดและโปรไฟล์การระบายความร้อนนั้นสอดคล้องกับภาระงานที่พวกเขาผลิตหรือไม่
FAQs ❓
- Ironwood จะสามารถใช้ได้ที่ไหนบ้าง? ผ่าน Google Cloud ในภูมิภาคทั่วโลก รวมถึงอเมริกาเหนือ, ยุโรป, และเอเชียแปซิฟิก
- การเข้าถึงเริ่มต้นเมื่อไร? การเข้าถึงในวงกว้างเริ่มต้นขึ้นในอีกไม่กี่สัปดาห์ข้างหน้า โดยจะขยายออกไปในปี 2025
- มันถูกสร้างขึ้นมาสำหรับโหลดอะไร? การ suyuceference ที่มีอัตราผลผลิตสูงสำหรับ LLMs, MoEs, เรื่องค้นหา, การแนะนำ, การเงิน, และการคำนวณทางวิทยาศาสตร์
- มันต่างจาก TPUs รุ่นก่อนหน้าอย่างไร? Google ระบุว่ามี throughput สูงกว่าได้ถึง 4× และประสิทธิภาพต่อวัตต์ที่ดีขึ้น 2x เมื่อเทียบกับ Trillium















