請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

CES 2026》摩爾定律重啟:輝達發表Vera Rubin平台,以「極致協同設計」重塑十兆美元算力版圖

信傳媒

更新於 01月08日02:23 • 發布於 01月08日02:20 • 沈觀遠
在CES 2026開場演講中,輝達(NVIDIA)執行長黃仁勳再度站在產業轉型的風口浪尖。他指出,電腦產業每隔10至15年便會發生一次重大的平台轉移。(圖片來源/輝達官方頻道)

在CES 2026開場演講中,輝達(NVIDIA)執行長黃仁勳再度站在產業轉型的風口浪尖。他指出,電腦產業每隔10至15年便會發生一次重大的平台轉移,而當前人類正處於從傳統運算邁向AI原生架構的核心節點。面對摩爾定律成長放緩的物理限制,輝達正式揭曉了以美國天文學先驅命名的新一代AI平台Vera Rubin,試圖透過軟硬體的「極致協同設計」(Extreme Codesign),在電力與半導體物理的邊界內壓榨出前所未有的算力潛能。

摩爾定律放緩,AI原生架構成新核心

黃仁勳在演講中直言不諱地表示:「摩爾定律的成長已經大幅放緩,電晶體數量的年度增長完全跟不上AI模型每 10 年擴張 10 倍的需求,更無法支撐 Token 生成成本每年激進下滑的產業期待。為了讓產業持續推進,我們別無選擇,必須同時對所有晶片、整個技術堆疊進行全面革新。」

這種「極致協同設計」的具體呈現,是包含六款全新晶片的 Rubin 完整平台:Vera CPU、Rubin GPU、NVLink 6 交換器、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 乙太網路交換器。這六款元件並非獨立運作,而是透過高度整合的架構實現效能飛躍。

例如,新款Vera CPU專為代理型推理(Agentic Inference)設計,其單執行緒效能與記憶體容量均大幅成長,且每瓦效能是當前先進CPU的兩倍;而Rubin GPU則導入了第三代Transformer引擎與NVFP4 Tensor Core技術,讓算力輸出不再受限於電晶體數量的線性成長。

Vera Rubin平台:六大晶片整合效能飛躍

從財務與運算效率的角度分析,Rubin平台的問世將為企業帶來革命性的成本優化。與前代Blackwell平台相比,Rubin能將推論Token的生成成本降低達 10 倍。在訓練端,過去需要龐大算力的混合專家模型(MoE),現在僅需四分之一的GPU數量即可達成相同的訓練效果。

黃仁勳強調,這場革命的背後是全球高達10兆美元的運算基礎設施正處於現代化的轉捩點。每年數千億美元的創投資金與企業研發預算,正在從傳統編寫程式的方法,全面轉向訓練AI的新範式。他向台下數千名聽眾表示:「Rubin的問世恰逢其時,因為AI運算對訓練與推論的需求正呈現爆炸性成長。」

此一願景迅速獲得全球科技巨頭的背書。微軟(Microsoft)已確認其新一代FairwaterAI超級工廠將採用Vera Rubin NVL72機架級系統,規模預計擴充至數十萬個超級晶片。微軟執行長 Satya Nadella對此指出,透過Vera Rubin的加入,將賦予開發人員與組織以全新方式進行創作、推理與擴展。OpenAI執行長Sam Altman也對此硬體突破表示讚許,認為智慧會隨運算能力擴展,而Rubin平台將協助推進解決人類最棘手的問題。

輝達的企圖,製造整個全端AI系統

除了純粹的性能指標,輝達也展示了對數據中心永續經營與ESG議題的回應。Vera Rubin 系統強調極致的能源效率,透過45度的熱水液冷技術,數據中心無需額外配置冷卻機即可穩定運作,這項創新預計能為全球數據中心節省約 6% 的電力損耗。

「這就是今日的NVIDIA,我們不僅製造晶片,我們製造的是整個全端AI系統。」黃仁勳在演講尾聲總結道。隨着Vera Rubin平台於2026年下半年正式出貨,這場以極致協同設計為核心的運算革命,將正式定義AI下一個前沿的經濟法則。

延伸閱讀

查看原始文章

更多理財相關文章

01

獨家/撐不住了?法巴產險擬撤台 在台逾25年畫句點

經濟日報
02

撐不住!精品百貨破產 全球12間店全關、大裁1200人

EBC 東森新聞
03

47歲夫提早退休,只給一表「65歲有2億」超荒謬…他們5年後資產竟暴漲,怎麼做到的?

幸福熟齡 X 今周刊
04

突收「帳戶凍結警示信」!標題多5個字被識破 網笑:連詐騙都用AI

鏡週刊
05

20萬買股「漲到1435萬」!他補摺手抖:不是夢

民視新聞網
06

半導體接力輪「它」迎漲聲 傳調價最高20%

CTWANT
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...