Google來勢洶洶 Ironwood TPU挑戰輝達AI晶片霸主地位

f3f0cc55 f4a1 4b88 82d3 25bb65e7eb93

商傳媒|記者責任編輯/綜合外電報導

AI算力戰場風雲再起,輝達(NVIDIA)原本在人工智慧晶片領域獨佔壟斷地位,市場上主要競爭對手僅剩超微(AMD)與英特爾(Intel),然而真正的威脅恐怕現在才要浮出檯面。根據科技媒體《Wccftech》報導,Google自2016年推出首代TPU(Tensor Processing Unit)以來,持續自研AI加速晶片,本月正式發表第七代「Ironwood TPU」,性能全面躍升,對輝達的市場主導地位恐進一步構成實質挑戰。

Google最新一代Ironwood TPU主打「推論(Inference)」運算,鎖定AI模型訓練完成後的應用部署階段。Google表示,Ironwood在推論效能與能效比上均創歷史新高,並宣稱是目前最強、最節能的客製化AI晶片;相較前一代Trillium(TPU v6e),新晶片在訓練與推論效能均提升4倍,對TPU v5p更達10倍峰值增幅。

Ironwood單顆晶片搭載192GB HBM3e高頻寬記憶體,傳輸速率達7.2TB/s,峰值運算效能高達4,614 TFLOPS(FP8),較TPU v4世代提升近16倍。值得注意的是,Google在雲端架構中打造「SuperPod」集群,每個Pod可容納9,216顆TPU,整體運算能量高達42.5 ExaFLOPS,總記憶體容量達1.77PB,形成可與輝達NVLink網絡抗衡的高密度算力集群。

Google此次採用自家InterChip Interconnect(ICI)網絡架構,單鏈路頻寬可達1.2Tb/s,並透過3D Torus佈局提升節點間連線密度。這種設計能大幅降低晶片間延遲、提升擴充彈性,成為Ironwood相較輝達架構的最大優勢之一。在AI推論階段,延遲、吞吐量與能耗比往往比單純的「TFLOPS」更關鍵。

Google強調,Ironwood的架構針對推論運算優化,不僅降低晶片間通訊成本,也提升整體能源使用效率。根據官方數據,新晶片的能耗效率較前代提升約2倍,能在雲端數據中心全天候運作環境下,顯著降低成本與碳排放。

目前AI產業正從「訓練時代」轉入「推論時代」,隨著大型語言模型(LLM)逐步部署,推論請求數量遠超訓練任務。此轉變讓Google的TPU方案在實際商業應用中更具吸引力;相較之下,輝達的H100與新一代Blackwell B200仍以訓練效能為主要賣點,但在推論效率與雲端整合上,Google已開始領先。

此外,Ironwood僅供Google Cloud用戶使用,意味Google正透過自有雲服務打造完整生態閉環。這種策略若成功,恐重演蘋果以自研晶片綁定生態的模式,對輝達構成長期威脅。分析人士指出,當前AI競爭焦點已從「算力最大化」轉向「服務效率最優化」,誰能以更低延遲、更高能效提供AI推論服務,將成為新一輪勝負關鍵。

儘管輝達從未放慢腳步,傳聞中下一代Rubin系列GPU已進入量產階段,並將搭載新一代HBM4記憶體與整櫃級(Rack-Scale)解決方案,企圖在推論市場找回優勢;但業界普遍認為,Google的ASIC策略已證明可行,其技術迭代速度與雲端佈局能力,足以威脅輝達AI晶片的獨霸地位。

f3f0cc55 f4a1 4b88 82d3 25bb65e7eb93
想讓品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

相關新聞

最新消息