
全球AI晶片龍頭輝達(NVIDIA)再度對「AI泡沫論」當頭棒喝,根據科技媒體《Wccftech》報導,輝達執行副總暨財務長柯蕾絲(Colette Kress)日前在「瑞銀(UBS)全球科技與AI會議」中強調,外界對「AI泡沫化」的擔憂無法成立,因為全球產業正處於從傳統CPU轉向GPU的重大轉型期,輝達將憑藉全生態鏈優勢與下一代Rubin架構,加速推動AI算力的進化浪潮。
針對近來市場上對AI資金過熱的擔憂聲浪,柯蕾絲確回應,「這不是我們所觀察到的情況」。柯蕾絲進一步指出,AI產業正歷經一場深層次的運算結構轉型,從過去數十年主導市場的CPU架構,全面邁向以GPU為核心的加速運算時代,柯蕾絲強調:「若持續依賴CPU,我們看不到任何實質性進步的可能,這就是為何GPU是必要的選擇。」
在此背景下,輝達並不僅只關注單一AI應用領域,而是從AI訓練到推論的全流程皆進行布局,形成完整的加速運算平台。柯蕾絲進一步透露,目前輝達已有七種不同的晶片同時運作,創造一個協同運算的AI環境,這是傳統單一功能導向的ASIC(專用應用積體電路)難以比擬的整合優勢。
針對外界關注ASIC是否將削弱輝達領先優勢,柯蕾絲指出,輝達的競爭力並不僅來自硬體性能,更關鍵在於其完整的軟硬體協同開發生態,特別是CUDA平台的成熟與領先。柯蕾絲說明:「CUDA已在多種AI開發函式庫中帶來數倍性能提升,這也是為何客戶仍選擇留在我們的平台上。」
這種橫跨硬體、軟體與開發工具的深度整合,被柯蕾絲形容為「極致共設計(co-design)」的成果,從硬體晶片到軟體架構,每一環節皆為AI效能最大化量身打造,遠非針對單一場景設計的ASIC可比。
除針對產業趨勢與競爭布局發表見解外,柯蕾絲也首度鬆口談論下一代GPU架構「Rubin」的最新進展。柯蕾絲透露,Rubin晶片已經完成Tape-out(完成電路設計並送交製造),目前正全力準備進入量產階段,預計最快將於2026年下半年正式問世。
Rubin被業界視為接續「Blackwell」架構的重磅產品,預期將整合更高效的AI推論與訓練運算核心,同時擁有針對雲端與邊緣AI應用的網路基礎架構優化。柯蕾絲強調,公司對Rubin的初步成果「非常滿意」,顯示輝達內部對該平台的技術與市場潛力充滿信心。
目前輝達在AI加速晶片市場市佔率超過80%,尤其在生成式AI、高速資料中心與雲端服務領域的需求激增,推動旗下A100/H100與Blackwell架構接單熱絡;儘管Google、亞馬遜、Meta等科技巨頭紛紛投入自研ASIC,力圖降低對輝達依賴,但在生態整合與軟體支援面,仍難以撼動輝達的領先地位。

