拆解 NVIDIA GH / GB200 超級晶片供應鏈!外資點名這些廠商受惠
輝達(NVIDIA)地表最強 AI 晶片 GB200 橫空出世,由兩顆 B200 與 Grace CPU 晶片封裝而成,並一顆 B200 晶片功耗高達 1,000 瓦至 1,200 瓦,首度採水冷散熱技術,成為市場關注焦點,外資出具最新報告拆解 NVIDIA GH / GB200 超級晶片供應鏈。
外資表示,輝達 GB200 明年占 70%、GH200 占 30%,GB200 分為 NVL36 及 NVL72,並預計將以 NVL36 為主,而 NVL36 的機櫃(rack)約 150 萬至 200 萬美元,至於 NVL72 為 1.8x(不到 2x)。
散熱方面,外資表示,每個 GPU 為 300 美元,較市場預估的 2,000 美元少,而市場傳 GB200 散熱為 4 萬至 8 萬美元,每個元件至少有四家供應商,預估價格理應不會太高,但 CSP(雲端服務供應商)沒有一定要個別採買零件,或是一定要完整解決方案,因此個個有機會,但個個沒把握。
進入百家爭鳴搶市的局面,外資表示,輝達 CPU 為自行推的 Grace,屬於 ARM 架構,CSP 想用 ASIC 或 x86 架構,但從 GTC 大會推出後,CSP 客戶給予正面回應,從 CP 值來看,每花 1 美元的算力更好,而且輝達也會提供 x86 架購產品。
CoWoS 目前仍是以台積電為主,外資表示,但今年也會新增 amkor(艾克爾)及英特爾供應鏈,合計與台積電將各占一半,明年輝達目標 600 萬至 650 萬顆,GB200 占 70%,算起來 5.8 萬至 11.7 萬個機櫃,今年約 400 萬至 450 萬顆。
GB200 組裝方面,外資表示,鴻海最大、緯創為 tier 1,至於廣達則算 tier 2,而且鴻海積極爭取 GB200機櫃,但 CSP 不會放棄 ASIC,而且時間拖越久,效能未能急劇跳耀,數量就會越來越少,預估今年訓練模型的 GPU,就會轉為推理模型,使 ASIC 數量可能沒辦法上升。
ASIC 方面,外資分析,Amazon、微軟、Google、Meta 四大雲端服務供應商,目前就是看 Amazon、Google,其中 Amazon 遜強攻自研晶片,世芯為 Trainium1 提供 7 奈米設計服務,邁威爾(Marvell)負責 Trainium2 的 5 奈米專案,創意為 ASIC 設計服務協力廠。
外資強調,信驊近期提到通用伺服器訂單陸續恢復,預期 CSP 客戶可能降低前一世代的 AI 伺服器採購,等待 GB200 出貨,因此先將今年預算用在通用伺服器採購,代表 H100 既有 ODM 及 ASIC AI 供應鏈有下修風險。
(首圖來源:NVIDIA)