黃仁勳要讓 AI 代理進入實體世界!NVIDIA CES 亮點:AI 晶片、機器人、自動駕駛佈局一次看
CES(美國國際消費性電子展)過去是電視、筆電與各式消費性電子新品的伸展台,但近幾年主角正快速換人。NVIDIA 把 CES 轉變為展示其 AI 硬體與軟體霸權的舞台,彷彿化身數位基礎設施部門,向全球宣示從晶片、機櫃、網路到軟體的全端控制力。CES 今年核心主題為實體 AI(Physical AI),NVIDIA 藉此機會發布了一系列涵蓋新一代晶片平台、機器人基礎模型以及自動駕駛技術的重大更新,試圖將 AI 代理從聊天機器人介面,推向實體環境。本文整理三大亮點:
亮點一:Vera Rubin 平台亮相,推理效能與頻寬大幅躍進
在硬體方面,NVIDIA 正式揭露了其首款採用極致協同設計(extreme-codesigned)、6 晶片的 AI 平台:Vera Rubin,並宣稱該系列晶片已進入全面生產階段。這 6 款晶片種類包含 GPU、CPU、NVLink 交換器、乙太網路交換器、智慧網卡、DPU。
根據官方數據,與前一代 Blackwell 架構相比,Vera Rubin 在推理方面的浮點效能將提高 5 倍,訓練效能提高 3.5 倍。對於解決 AI 瓶頸至關重要的記憶體頻寬,Rubin 則提升了 2.8 倍,同時 NvLink 互連速度也提高了一倍,這將有助於更高效地串聯數千個 GPU。
Vera Rubin 平台不僅僅是單一 GPU 的升級,而是被拆解為可出貨的模組化組件,目的在降低訓練的成本。在機櫃系統層級,旗艦級伺服器 NVL72 將搭載 72 個 Rubin GPU 與 36 個全新的 Vera CPU。此外,NVIDIA 正試圖讓「長上下文」(Long Context)成為一項基礎設施採購決策,發表了推理上下文記憶體儲存平台、導入了名為 Rubin CPX 的加速器,專門處理大型語言模型推理中運算密集的「預填充」階段,並搭配 128 GB 的 GDDR7 記憶體。
這些硬體更新顯示 NVIDIA 正透過將運算、網路與儲存緊密綁定,試圖解決 AI 代理在處理複雜任務時可能遇到的效能瓶頸。
亮點二:通用機器人的 Android 時刻?Cosmos Reason 2 登場
在機器人領域,NVIDIA 展現了成為「通用機器人界 Android」、預設平台的強烈企圖,發表一系列新機器人基礎模型、模擬工具和邊緣硬體。
為了讓機器人開發更加普及與標準化,NVIDIA 推出 Cosmos Reason 2 模型。這款視覺語言模型目的在賦予機器人「實體推理」的能力,讓 AI 代理能夠理解物理世界、規劃行動並處理複雜任務,而不僅僅是執行單一指令。《VentureBeat》分析,這也代表,AI 代理的發展正從數位空間,轉向能感知並影響物理環境的「物理代理」。
除此,NVIDIA 還發表了 Cosmos Transfer 2.5 和 Cosmos Predict 2.5,這兩個世界模型用於在模擬環境中產生合成資料和評估機器人策略。而為前述生態系統提供支援的是開源指揮中心 NVIDIA OSMO,作為連接基礎設施,整合從資料生成到訓練的整個工作流程,涵蓋桌面和雲端環境。
為了驅動這一切,NVIDIA 也更新了其軟硬體生態系。硬體方面推出了 Jetson T4000 邊緣運算晶片,採用 Blackwell 架構,為機器人提供端側運算能力。軟體方面則深化與開源社群 Hugging Face 的合作,將 Isaac 與 GR00T 等技術整合至 LeRobot 框架中,觸及 NVIDIA 的 200 萬個機器人開發者和 Hugging Face 的 1,300 萬 AI 開發者。
透過提供從模擬訓練、策略評估到實際部署的全套工具,NVIDIA 試圖建立一個開放且標準化的開發平台,讓開發者能像開發手機 App 一樣容易地打造機器人應用。
亮點三:讓自駕車具備人類「推理」能力的 Alpamayo 模型
在自動駕駛技術方面,NVIDIA 試圖解決自駕車如何在沒有先前經驗的情況下應對複雜邊緣情況的難題。新推出的 Alpamayo 是一系列開放 AI 模型、模擬工具與資料集,其核心概念是讓車輛「像人類一樣思考」。不同於傳統自駕系統只依賴感知與規劃的線性流程,Alpamayo 也是擁有 100 億個參數的視覺語言動作(VLA)模型,具備「思維鏈」(Chain-of-thought)推理能力,能將複雜的交通場景拆解為步驟,並解釋其決策背後的原因。
例如在遇到交通號誌故障的繁忙路口時,Alpamayo 能推理出最安全的通過路徑,而不僅是依賴預設規則。NVIDIA 強調,這款模型主要作為「教師系統」,用於在模擬環境中訓練與驗證自駕軟體,而非直接在車端運行,目標是讓車廠更容易建立一套可重複檢驗的安全開發流程。
黃仁勳在 CES 演講中表示,自動駕駛將是「實體 AI」的第一個大規模商業應用,而 NVIDIA 確保安全的方法依賴推理,而不是預先定義每一種可能駕駛場景。該公司預計,與 Mercedes-Benz 合作打造的首款自駕車,將於今年第一季在美國推出,第二季進軍歐洲,並於稍後拓展至亞洲市場。
為了加速產業發展,NVIDIA 釋出了超過 1,700 小時的真實駕駛數據與 AlpaSim 開源模擬框架,顯示 NVIDIA 正試圖透過開放生態系,將其技術標準植入未來的 Level 4 自動駕駛開發流程中。
NVIDIA 生成式 AI 和軟體副總裁 Kari Briski 表示,「NVIDIA 將成為 Hugging Face 的最大貢獻者,擁有 650 個開放模型和 250 個開放資料集。」《QZ》分析,NVIDIA 與其說是出於意識形態覺醒而加入開源運動,不如說是為了透過免費範例,吸引開發者加入其生態系。
從更宏觀的角度來看,NVIDIA 在 CES 傳達的核心訊息相當明確:AI 未來競爭的關鍵在於一條完整的基礎架構管線,而 NVIDIA 的目標,是讓這條管線上的每一個環節如運算、網路、儲存、安全與模擬,都在它既有或正在銷售的技術之上運行。
【推薦閱讀】
*本文開放合作夥伴轉載,資料來源:《The Register》、《Reuters》、《Bloomberg》、《VentureBeat》、《TechCrunch》1、《TechCrunch》2、《SiliconAngle》、《QZ》、《Tech Informed》,首圖來源:NVIDIA
解鎖 3 堂 NVIDIA DLI 技能培訓課!立即報名 1/10【AI 人才年會暨 AI 職涯博覽會】,就能免費參與課程強化 AI 能力、為職涯加分