SURL News

輝達新一代AI系統Vera Rubin能效躍升十倍 預計2026年下半年量產

Nvidia’s new AI system Vera Rubin is 10 times more efficient than its predecessor — here’s a first look

作者: Katie Tarasov | 時間: Wed, 25 Feb 2026 13:00:01 GMT | 來源: CNBC

輝達本周三將公布的財報預料顯示,現有機架級系統銷售熱絡,但市場焦點更集中在預計今年稍晚推出的下一代AI系統Vera Rubin。Vera Rubin由130萬個元件組成,輝達聲稱其每瓦效能較前一代Grace Blackwell提升10倍,這項突破在人工智慧建設面臨能源消耗問題的當下尤為關鍵。

CNBC獨家在加州聖克拉拉的輝達總部搶先一睹Vera Rubin真容。輝達表示,這套全新AI系統整合全球採購的複雜零件網絡,核心晶片包含72組由台積電主導製造的Rubin繪圖處理器(GPU)及36組Vera中央處理器(CPU)。其他零組件,從液冷元件、電源系統到運算托盤,則來自至少20個國家超過80家供應商,包括中國、越南、泰國、墨西哥、以色列及美國。

輝達面臨的一大挑戰,是因AI需求激增導致全球記憶體短缺、價格高漲。輝達AI基礎架構負責人Dion Harris受訪時表示,公司已向供應商提供「非常詳細的預測」。

「我們正協調確保出貨量與供應鏈能力同步,目前狀況良好。」他說道。

對輝達而言,這正是關鍵時刻。作為AI處理器市場龍頭,輝達面臨超微(AMD)日益激烈的競爭,以及博通與谷歌自製張量處理器(TPU)等客製化晶片的挑戰。輝達計畫於2029年前在美國生產總值高達5,000億美元的AI基礎設施,包括在台積電亞利桑那新廠製造Blackwell GPU。

Grace Blackwell於2024年量產,重新定義單一系統的運算極限;預計2026年下半年出貨的Vera Rubin,則將輝達帶向全新境界。輝達執行長黃仁勳於1月宣布該系統已進入全量產階段。

「這些系統規模龐大,整合所有運算、網路、線纜與冷卻設備,」研究機構Futurum Group分析師Daniel Newman表示,「它們將這些子系統整合為單一機架,專為極致效率與效能而設計。這與過去伺服器的傳統構造截然不同。」

上週,Meta宣布計畫於2027年前在資料中心導入Vera Rubin,預期客戶還包括OpenAI、Anthropic、亞馬遜、谷歌與微軟。

這些在美國、台灣及墨西哥富士康新廠製造的機架重達近2公噸,配備約1,300顆微晶片,較Grace Blackwell的864顆明顯增加。

Vera Rubin採用更簡化模組化設計,提升安裝與維修便利性。每個超級晶片僅需數秒即可從機架18個運算托盤中抽離,而Blackwell系統的組件則需焊接到電路板上。

輝達指出,新系統功耗約為前一代的兩倍,但因每瓦效能提升10倍,整體能效更為優異。

美資證券公司Mizuho Securities分析師Jordan Klein表示,最重要的指標是「每單位耗電所產生的運算代幣數」。

「調整這項參數越精準,投資回報率就越可觀。」Klein補充道。

Vera Rubin也是輝達首款100%採用液冷技術的系統,Harris指出,這使資料中心的耗水量「遠低於」傳統蒸發式冷卻。輝達未透露機架定價,但Futurum Group預估價格較Grace Blackwell上漲約25%,推估整套系統售價約350萬至400萬美元。

隨著主要客戶尋求降低對輝達的依賴,多數企業亦開始在AI伺服器中導入自研晶片。CNBC於10月參訪亞馬遜雲端運算服務資料中心,發現內部已部署搭載Trainium 2晶片的「超級伺服器」,而谷歌資料中心則大量採用其TPU運算機架。

今年稍晚,輝達將面臨勁敵AMD推出名為Helios的首套機架級系統。該晶片大廠近日獲Meta承諾採購高達60億瓦的運算容量。

「客戶既需要更大產能,也期待有可靠第二供應源來制衡輝達,」Klein表示,「因此市場需求將持續增長。」

針對競爭威脅,Harris回應:「任何敢於嘗試的企業都值得敬佩,但這絕非易事。」

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: