【GTC AI 晶片亮點一次看】瞄準 AI 推理、進軍太空,黃仁勳在 GTC 端出哪些猛料?
「代理式 AI 的關鍵轉捩點已經到來。」萬眾矚目的 NVIDIA GTC 2026 大會登場,NVIDIA 執行長黃仁勳在主題演講展示了一系列最新產品,包含一款全新的 CPU,以及一套基於 Groq 技術打造的 Vera Rubin AI 系統等,向 AI 晶片產業的其他公司發起了挑戰。黃仁勳更預測,自 2025 至 2027 年,NVIDIA AI 晶片的收入可能至少達到 1 兆美元,這比先前預測又翻了一倍。
這些動作,是黃仁勳強化 NVIDIA 在「推論運算」(inference computing)市場佈局的一部分。所謂推論,就是讓 AI 回答問題、實際執行任務的階段;而在這個領域,NVIDIA 的 GPU 正面臨來自 CPU,以及像 Google 等公司自研客製化晶片的競爭。相較之下,過去幾年 NVIDIA 的優勢主要集中在 AI 模型訓練市場。
在這場長達 2.5 小時的演講中,NVIDIA 如何迎接代理式 AI 的關鍵轉捩點?本文精選出 4 大亮點帶你看看。
亮點一:Vera Rubin 平台開啟代理式 AI 前沿
NVIDIA 正式對整個 AI 晶片產業下戰帖,推出下一代運算平台 Vera Rubin。黃仁勳宣布,這套平台整合多達 7 款新晶片,目標支撐他所稱「史上最大規模的 AI 基礎建設擴張」。
Vera Rubin 以發現暗物質證據的天文學家 Vera Rubin 命名,背後不只是 GPU 升級,更是一次完整架構重設。NVIDIA 表示,這套平台是為企業邁向「代理式 AI」(agentic AI)而設計,也就是讓具備推理能力、可調用工具並執行複雜任務的 AI 代理,成為運算核心。
在硬體架構上,Vera Rubin 以全新 Rubin GPU 與 Vera CPU 為核心,並整合 NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 乙太網交換器,以及新發表的 NVIDIA Groq 3 LPU,專為支援兆參數模型推論所需的低延遲與高確定性而設計。
黃仁勳強調,Vera Rubin 將帶來「世代級」的 AI 算力躍升。「7 顆突破性晶片、5 個機櫃、1 台巨型超級電腦,支撐 AI 的每一個階段,」他如此表示。
根據《SiliconAngle》報導,NVIDIA 希望擺脫獨立銷售晶片和伺服器的模式,轉而銷售完整的「AI 工廠」,這些工廠由完全整合的機架集系統和小型部署單元組成,以支援代理式 AI 部署。這項策略的核心就是 Vera Rubin NVL72 機架,由 72 個 Rubin GPU 和 36 個 Vera CPU 組成,並透過高速 NVLink 6 互連技術連接。該系統還整合了全新的 ConnectX-9 SuperNIC 和 BlueField-4 DPU,以實現突破性效率。
根據 NVIDIA,在訓練大型混合專家模型時,該系統所需 GPU 數量僅為 NVIDIA Blackwell 平台的四分之一,且每瓦的推論資料輸送量最高可提升 10 倍,每個詞元成本僅為先前的十分之一。
更多 GTC 相關報導,歡迎閱讀:【TO 展會特輯】透視 NVIDIA GTC 2026
亮點二:Vera CPU 登場,挑戰 AMD、英特爾
強化學習與代理式 AI 工作負載需要大量基於 CPU 的環境,以測試並驗證在 GPU 系統上運行的模型所產生的結果。本次 GTC 大會的另一大亮點,就是 NVIDIA 公布了其全新 88 核 Vera CPU 的更多細節,正式切入資料中心 CPU 市場,與英特爾、AMD 正面競爭。
該處理器採用自研 Olympus 核心,帶來 1.5 倍 IPC 提升與更高記憶體頻寬,整體效能較傳統 CPU 提升約 50%。NVIDIA 同時推出 Vera CPU Rack,單一機櫃整合 256 顆液冷 CPU,主打代理式 AI 與高運算需求場景,最高可實現 6 倍吞吐量與 2 倍 AI 工作負載效能。
在架構上,Vera CPU 強調高頻寬、低延遲與可預測性,透過自家互連與記憶體設計,將頻寬提升至 1.2 TB/s,並支援 NVLink-C2C 等高速連接,專為 AI 訓練與推論等工作負載優化。
搭配機櫃級部署,Vera CPU 可支援數萬執行緒與大規模並行運算,並將應用於 hyperscaler 與 OEM 生態系。這也讓 Vera 成為 Vera Rubin AI 平台的關鍵組件之一,進一步強化 NVIDIA 從晶片供應商轉型為 AI 基礎設施提供者的戰略布局。
亮點三:推論晶片 Groq 3 LPU 終於亮相
《SiliconAngle》指出,儘管外界多數將目光聚焦在最新處理器 Rubin,但是全新的 Groq 3 LPU 可能才是影響最深遠的產品。NVIDIA 超大規模與高效能運算副總裁 Ian Buck 表示,雖然 GPU 擁有更大的記憶體容量,但 Groq 3 的記憶體速度更快。該晶片專為低延遲工作負載與代理式 AI 系統所需的大型上下文設計。
這款晶片將透過專用的 Groq 3 LPX 伺服器機櫃提供,單一機櫃包含 256 顆 Groq 3 LPU,具備 128 GB 固態隨機存取記憶體與每秒 40 PB 的頻寬,使其推論處理能力遠超任何 GPU。
Groq 3 LPX 設計上可與 NVIDIA 新推出的 Vera Rubin NVL72 機櫃搭配使用,這套系統已針對兆參數模型與百萬 token 上下文進行最佳化,與 Vera Rubin 搭配可在功耗、記憶體與運算之間達到最佳效率。Buck 指出,兩者結合可實現每瓦吞吐量提升 35 倍,並帶來 10 倍的營收機會。值得關注的是,該晶片由三星代工製造,並已投入量產階段。
亮點四:NVIDIA 推出太空運算,性能是 H100 的 25 倍
NVIDIA 的野心不只在地球,更要為軌道資料中心、地理空間情報和自主太空營運提供 AI 算力。黃仁勳在 GTC 大會上發表了 NVIDIA Space-1 Vera Rubin 模組,指出「隨著我們部署衛星星座並更深入地探索太空,智慧必須存在於任何生成資料的地方。」根據 NVIDIA,已有 6 家商業航太公司部署了該平台。
與 NVIDIA H100 GPU 相比,該模組上的 Rubin GPU 可為太空推論運算提供高出 25 倍的 AI 運算能力。該模組具備高度整合的 CPU-GPU 架構以及高頻寬互連技術,旨在即時處理來自太空儀器的海量數據流,並直接在軌道上執行大型語言模型(LLM)與進階基礎模型。
在其產品定位之下的是 NVIDIA IGX Thor,針對支援即時 AI 處理、功能安全、安全啟動及自主運作的關鍵任務邊緣環境。同時,NVIDIA Jetson Orin 則負責最小的尺寸規格,針對受限於尺寸、重量與功耗(SWaP-constrained)的衛星,進行機載視覺、導航及感測器數據處理。
回到地球表面,NVIDIA 將 RTX PRO 6000 Blackwell 系列伺服器版 GPU 定位於地理空間情報(geospatial intelligence)工作負載;聲稱在分析大型影像存檔時,其效能比傳統基於 CPU 的批次處理系統提升了高達 100 倍。IGX Thor、Jetson Orin 以及 RTX PRO 6000 Blackwell 伺服器版現已上市。Vera Rubin 太空模組尚未公佈發售日期;NVIDIA 表示該產品將在稍後推出。
想了解更多 NVIDIA GTC 相關動態?《TechOrange》展會特輯帶你一手掌握:
【TO 展會特輯】透視 NVIDIA GTC 2026
*本文開放合作夥伴轉載,資料來源:NVIDIA 1、NVIDIA 2、《Reuters》、《CRN》、《Bloomberg》、《The Register》、《Tom’s Hardware》、《Tom’s Hardware》2、《Tom’s Hardware》3、《SiliconAngle》,首圖來源:NVIDIA