HBM 崛起!記憶體為何不再是配角,成 AI 核心戰場?
在半導體產業中,記憶體晶片長期被視為「不起眼」的領域,相較於 AMD、高通、NVIDIA、台積電設計或生產,負責運算與邏輯控制的處理器(CPU/GPU),記憶體往往被壓低到成本導向的市場。然而,高頻寬記憶體(HBM, High Bandwidth Memory)的出現,正在改變記憶體產業。
HBM 成 AI 關鍵解方
《金融時報》報導,SK 海力士位於韓國利川的 M14 廠,如今是全球 HBM 重鎮之一。SK 海力士副總裁兼 HBM 業務規劃負責人 Joon-yong Choi 指出,在傳統的 DRAM 領域中,「客戶優先考慮成本而不是功耗和效能,但在 HBM 領域,客戶優先考慮功耗和效能,而不是成本。」
HBM 解決的問題,是幫助 AI 大型語言模型(LLM)突破「記憶體牆」瓶頸,也就是處理器的運算速度成長遠遠快於記憶體存取速度成長,導致系統效能受限於記憶體讀寫效率的問題,並同時提高資料中心的效率、降低成本。Choi 形容,若傳統 DRAM 僅有 64 條資料通道,HBM 就像一條擁有 1,024 條車道的高速公路,「以 AI 記憶體需求來說,沒什麼比得上 HBM。」
SK 海力士首次逆襲成功
記憶體對於 AI 的重要性與日俱增,也改變了產業巨頭的歷史排名。根據報導,SK 海力士包含 HMB 的 DRAM 營收,從 2021 年的第二季 7.5 兆韓元,飆升至 2025 年同期的 17.1 兆韓元,這是 SK 海力士在記憶體市場與三星競爭以來,首次超越三星。塔夫茨大學副教授、《晶片戰爭》作者 Cliff‧Miller 表示,「5 年前,SK 海力士超越三星還不可想像。」
推升海力士的關鍵,在於海力士於 2013 年開始研發 HBM 晶片,這種晶片由層疊的 DRAM 單元組成,透過厚度只有人類十分之一的銅線連接;此外其率先採用「MR-MUF 封裝技術」,確保在堆疊 16 層 DRAM 晶片時能有效散熱。種種因素讓海力士成為 NVIDIA 主要的 HBM 供應商,直接受惠於 AI 晶片需求爆炸式成長。
HBM 成美中角力新焦點
記憶體的重要性並未侷限於商業層面,它同樣成為美中科技角力的新焦點。《彭博》報導,美國政府正在考慮收緊對韓國記憶體廠在中國工廠的設備出口限制,要求三星與 SK 海力士改以「年度核准制」申請出貨,取代過往的長期豁免,藉此加強對技術流向的掌握。
分析機構 Futurum Group 的 Wang 告訴《彭博》,這突顯華府已經意識到記憶體晶片在 AI 部署中的戰略價值。另一方面,中國廠商長鑫存儲(CXMT)也在追趕,據悉正在測試 HBM3 晶片,試圖縮小與韓、美廠商的差距。然而報導指出,受制於美國的先進設備管制,中國能否量產高階 HBM 仍存疑。
HBM 五年內仍是主角
《金融時報》觀察,大多數分析師認為,雖然各界正在尋找替代方案、減少對 HBM 的依賴,例如華為嘗試以不同記憶體晶片分擔運算任務,或日本 SoftBank 與英特爾合作研發新型堆疊記憶體,但至少在未來五年內,HBM 仍將是具有主導性的記憶體解決方案。
目前 SK 海力士在 HBM 市場處於領先地位,計劃今年量產新一代 HBM4,將應用於 NVIDIA 即將推出的 Rubin 平台,提升大型語言模型效能。與 HBM3E 仍使用傳統 DRAM 作為邏輯晶片不同,HBM4 將採用由台積電製造的先進處理器晶片執行。
三星的 HBM4 也將採用其自有代工部門生產的先進處理器晶片,並且積極與其主要客戶討論一種改善 DRAM 堆疊連接的方法,名為「hybrid bonding(混和接合)」。Wang 認為,誰能率先採用 hybrid bonding,就將決定誰在下一代 HBM 領域佔據主導地位,而中國企業也在大力投資相關研究,加快專利申請。
AI 機器人浪潮來襲!立即免費下載《AI 機器人全球 7 大勢力關鍵報告》,解鎖各國 AI 機器人發展重點
*本文開放合作夥伴轉載,資料來源:《Financial Times》、《Bloomberg》,首圖來源:Unsplash