請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

HBM3E 明年占 HBM 需求近九成!記憶體廠力拚通過 NVIDIA 驗證

科技新報

更新於 2024年10月16日16:30 • 發布於 2024年10月16日16:10

調研機構 TrendForce 今(16 日)舉行「AI 時代 半導體全局展開──2025 科技產業大預測」研討會。TrendForce 分析師王豫琪指出,三大記憶體廠將擴大 HBM 產能,預期年增 117%,其中美光因基期較低,預期會有雙位數成長。

以產品比重來看,因為 NVIDIA 最新產品會逐步轉往 12 層 HBM3e,明年 HBM3e 將取代 HBM3 成主流產品,占整體 HBM 產品需求 89%,而 HBM3e 平均售價(ASP)約是 DRAM 產品三至五倍,待 HBM3e 量產,加上產能擴張,營收貢獻將逐季上揚。至於中國營收主要由 HBM2e 帶來貢獻。

目前三大記憶體廠的 12 層 HBM3e 都在 NVIDIA 送驗階段,預期後續驗證完成、良率提升後,能見度將大幅提升。

TrendForce 研究經理敖國鋒表示,NAND Flash 供應商經歷 2023 年鉅額虧損後,資本支出轉趨保守。同時,DRAM 和 HBM 等記憶體產品需求受惠 AI 浪潮,將排擠 2025年 NAND Flash 設備投資,使過去嚴重供過於求的市況將有所緩解。不過,AI 應用對高速、大容量儲存的需求日益增加,也將推動 enterprise SSD (eSSD) 市場的蓬勃發展。

針對伺服器市況,TrendForce 資深分析師鞏明德認為,今年 NVIDIA 高階 GPU 出貨量成長率將超過 150%,以 H200 等 H 系列為市場主力產品,至於 Blackwell 新平台將於明年上半年放量並成為主流,占比從 4% 拉高至84%。此外,在新一代 AI 晶片趨勢下,先進封裝將從 CoWoS-S 往 CoWoS-L 邁進、HBM3 轉往 HBM3e,也將明顯拉升液冷散熱方案滲透率。

觀察全球 AI 市場發展動態,受惠 2024 年 CSP 及品牌客群對建置AI基礎設施需求強勁,全球 AI 伺服器(含搭載GPU、FPGA、ASIC等)出貨年成長可達 42%;2025 年受雲端業者及主權雲等需求帶動,出貨量可望再成長約 28%,推動 AI 伺服器占整體伺服器比例提高至近 15%。中長期來看,預期在各種雲端 AI 訓練及推論應用服務推進下,2027 年 AI 伺服器占比有機會逼近 19%。

針對液冷散熱技術,TrendForce 分析師邱珮雯認為,隨著運算能力提升,液態冷卻解決方案在資料中心逐步重要。在 Blackwell 新平台下,GB200 NVL72 機櫃方案的熱設計功耗(TDP)高達約 140kW,須採用液冷方案才可有效解決散熱問題,預計初期將以水對氣(Liquid-to-Air,L2A)方式為主流,帶動整體 AI 晶片的液冷散熱滲透率,從 2024 年的 11% 提升至 2025 年的 24%。

此外,CSP 自研高階 ASIC 以 Google 最積極採用液冷方案,其 TPU 晶片同時使用氣冷與液冷解決方案,其他 CSP 仍以氣冷為主要散熱方案。中國供應鏈部分,則以阿里巴巴採用液冷散熱解決方案最為積極。長期來看,全球對 ESG 逐漸重視,將加速帶動散熱方案由氣冷轉液冷形式。

(首圖來源:shutterstock)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多科技相關文章

01

超微與Meta擴大戰略合作 奪5年600億美元晶片大單 

路透社
02

蘋果Mac mini部分產線回流美國 德州鴻海廠將啟動新生產計畫

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...