請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

【GTC AI 晶片亮點一次看】瞄準 AI 推理、進軍太空,黃仁勳在 GTC 端出哪些猛料?

TechOrange 科技報橘

更新於 03月17日16:43 • 發布於 03月17日04:40 • 廖紹伶

「代理式 AI 的關鍵轉捩點已經到來。」萬眾矚目的 NVIDIA GTC 2026 大會登場,NVIDIA 執行長黃仁勳在主題演講展示了一系列最新產品,包含一款全新的 CPU,以及一套基於 Groq 技術打造的 Vera Rubin AI 系統等,向 AI 晶片產業的其他公司發起了挑戰。黃仁勳更預測,自 2025 至 2027 年,NVIDIA AI 晶片的收入可能至少達到 1 兆美元,這比先前預測又翻了一倍。

這些動作,是黃仁勳強化 NVIDIA 在「推論運算」(inference computing)市場佈局的一部分。所謂推論,就是讓 AI 回答問題、實際執行任務的階段;而在這個領域,NVIDIA 的 GPU 正面臨來自 CPU,以及像 Google 等公司自研客製化晶片的競爭。相較之下,過去幾年 NVIDIA 的優勢主要集中在 AI 模型訓練市場。

在這場長達 2.5 小時的演講中,NVIDIA 如何迎接代理式 AI 的關鍵轉捩點?本文精選出 4 大亮點帶你看看。

亮點一:Vera Rubin 平台開啟代理式 AI 前沿

Vera Rubin。圖片來源:NVIDIA。

NVIDIA 正式對整個 AI 晶片產業下戰帖,推出下一代運算平台 Vera Rubin。黃仁勳宣布,這套平台整合多達 7 款新晶片,目標支撐他所稱「史上最大規模的 AI 基礎建設擴張」。

Vera Rubin 以發現暗物質證據的天文學家 Vera Rubin 命名,背後不只是 GPU 升級,更是一次完整架構重設。NVIDIA 表示,這套平台是為企業邁向「代理式 AI」(agentic AI)而設計,也就是讓具備推理能力、可調用工具並執行複雜任務的 AI 代理,成為運算核心。

在硬體架構上,Vera Rubin 以全新 Rubin GPU 與 Vera CPU 為核心,並整合 NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 乙太網交換器,以及新發表的 NVIDIA Groq 3 LPU,專為支援兆參數模型推論所需的低延遲與高確定性而設計。

黃仁勳強調,Vera Rubin 將帶來「世代級」的 AI 算力躍升。「7 顆突破性晶片、5 個機櫃、1 台巨型超級電腦,支撐 AI 的每一個階段,」他如此表示。

根據《SiliconAngle》報導,NVIDIA 希望擺脫獨立銷售晶片和伺服器的模式,轉而銷售完整的「AI 工廠」,這些工廠由完全整合的機架集系統和小型部署單元組成,以支援代理式 AI 部署。這項策略的核心就是 Vera Rubin NVL72 機架,由 72 個 Rubin GPU 和 36 個 Vera CPU 組成,並透過高速 NVLink 6 互連技術連接。該系統還整合了全新的 ConnectX-9 SuperNIC 和 BlueField-4 DPU,以實現突破性效率。

根據 NVIDIA,在訓練大型混合專家模型時,該系統所需 GPU 數量僅為 NVIDIA Blackwell 平台的四分之一,且每瓦的推論資料輸送量最高可提升 10 倍,每個詞元成本僅為先前的十分之一。

更多 GTC 相關報導,歡迎閱讀:【TO 展會特輯】透視 NVIDIA GTC 2026

亮點二:Vera CPU 登場,挑戰 AMD、英特爾

強化學習與代理式 AI 工作負載需要大量基於 CPU 的環境,以測試並驗證在 GPU 系統上運行的模型所產生的結果。本次 GTC 大會的另一大亮點,就是 NVIDIA 公布了其全新 88 核 Vera CPU 的更多細節,正式切入資料中心 CPU 市場,與英特爾、AMD 正面競爭。

該處理器採用自研 Olympus 核心,帶來 1.5 倍 IPC 提升與更高記憶體頻寬,整體效能較傳統 CPU 提升約 50%。NVIDIA 同時推出 Vera CPU Rack,單一機櫃整合 256 顆液冷 CPU,主打代理式 AI 與高運算需求場景,最高可實現 6 倍吞吐量與 2 倍 AI 工作負載效能。

在架構上,Vera CPU 強調高頻寬、低延遲與可預測性,透過自家互連與記憶體設計,將頻寬提升至 1.2 TB/s,並支援 NVLink-C2C 等高速連接,專為 AI 訓練與推論等工作負載優化。

搭配機櫃級部署,Vera CPU 可支援數萬執行緒與大規模並行運算,並將應用於 hyperscaler 與 OEM 生態系。這也讓 Vera 成為 Vera Rubin AI 平台的關鍵組件之一,進一步強化 NVIDIA 從晶片供應商轉型為 AI 基礎設施提供者的戰略布局。

亮點三:推論晶片 Groq 3 LPU 終於亮相

Groq 3 LPU。圖片來源:NVIDIA

《SiliconAngle》指出,儘管外界多數將目光聚焦在最新處理器 Rubin,但是全新的 Groq 3 LPU 可能才是影響最深遠的產品。NVIDIA 超大規模與高效能運算副總裁 Ian Buck 表示,雖然 GPU 擁有更大的記憶體容量,但 Groq 3 的記憶體速度更快。該晶片專為低延遲工作負載與代理式 AI 系統所需的大型上下文設計。

這款晶片將透過專用的 Groq 3 LPX 伺服器機櫃提供,單一機櫃包含 256 顆 Groq 3 LPU,具備 128 GB 固態隨機存取記憶體與每秒 40 PB 的頻寬,使其推論處理能力遠超任何 GPU。

Groq 3 LPX 設計上可與 NVIDIA 新推出的 Vera Rubin NVL72 機櫃搭配使用,這套系統已針對兆參數模型與百萬 token 上下文進行最佳化,與 Vera Rubin 搭配可在功耗、記憶體與運算之間達到最佳效率。Buck 指出,兩者結合可實現每瓦吞吐量提升 35 倍,並帶來 10 倍的營收機會。值得關注的是,該晶片由三星代工製造,並已投入量產階段。

亮點四:NVIDIA 推出太空運算,性能是 H100 的 25 倍

NVIDIA Space-1 Vera Rubin 模組。圖片來源:NVIDIA

NVIDIA 的野心不只在地球,更要為軌道資料中心、地理空間情報和自主太空營運提供 AI 算力。黃仁勳在 GTC 大會上發表了 NVIDIA Space-1 Vera Rubin 模組,指出「隨著我們部署衛星星座並更深入地探索太空,智慧必須存在於任何生成資料的地方。」根據 NVIDIA,已有 6 家商業航太公司部署了該平台。

與 NVIDIA H100 GPU 相比,該模組上的 Rubin GPU 可為太空推論運算提供高出 25 倍的 AI 運算能力。該模組具備高度整合的 CPU-GPU 架構以及高頻寬互連技術,旨在即時處理來自太空儀器的海量數據流,並直接在軌道上執行大型語言模型(LLM)與進階基礎模型。

在其產品定位之下的是 NVIDIA IGX Thor,針對支援即時 AI 處理、功能安全、安全啟動及自主運作的關鍵任務邊緣環境。同時,NVIDIA Jetson Orin 則負責最小的尺寸規格,針對受限於尺寸、重量與功耗(SWaP-constrained)的衛星,進行機載視覺、導航及感測器數據處理。

回到地球表面,NVIDIA 將 RTX PRO 6000 Blackwell 系列伺服器版 GPU 定位於地理空間情報(geospatial intelligence)工作負載;聲稱在分析大型影像存檔時,其效能比傳統基於 CPU 的批次處理系統提升了高達 100 倍。IGX Thor、Jetson Orin 以及 RTX PRO 6000 Blackwell 伺服器版現已上市。Vera Rubin 太空模組尚未公佈發售日期;NVIDIA 表示該產品將在稍後推出。

想了解更多 NVIDIA GTC 相關動態?《TechOrange》展會特輯帶你一手掌握:
【TO 展會特輯】透視 NVIDIA GTC 2026

*本文開放合作夥伴轉載,資料來源:NVIDIA 1NVIDIA 2《Reuters》《CRN》《Bloomberg》《The Register》《Tom’s Hardware》《Tom’s Hardware》2《Tom’s Hardware》3《SiliconAngle》,首圖來源:NVIDIA

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

不買10年後會後悔!外媒點名「現買2檔股票」 台積電入列

CTWANT
02

AI泡沫化要來了?「邊緣運算」成市場大趨勢 簡立峰曝台灣未來驚人可能

風傳媒
03

不只台積電!外媒點名2檔個股:買了10年後會感謝自己

民視新聞網
04

〈經濟部記者會〉免囤塑膠袋!龔明鑫:中油源頭增產 穩供每月12.5億個塑膠袋「不用搶」

anue鉅亨網
05

為家中兒童檢視保單 金管會提醒家長:投保前注意三大重點

經濟日報
06

OpenAI高層連動:AGI開發長病休、營運長轉職引關注

商傳媒
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...