新研究繞過 HBM 瓶頸:DeepSeek 如何在算力受限下,於西方之外的 AI 競賽領先美國?
近日 DeepSeek 創辦人梁文鋒與北京大學研究團隊,在共同發表的最新論文中,揭示一種名為 「Engram」 的模型訓練新方式。Engram 技術是將「條件記憶(Conditional Memory)」視為繼專家混合(MoE)之後的稀疏模型新維度。所謂的條件記憶,就是透過引入可擴展的查找記憶結構,在相同參數與算力條件下,顯著提升模型在知識調用、推理、代碼、數學等任務上的表現。
這項研究的核心目標,是經由繞過 GPU 高頻寬記憶體(HBM)的容量限制,實現「激進的參數擴張(aggressive parameter expansion)」,從而打破模型規模受制於單一硬體記憶體上限的困局。
透過「解耦」計算與記憶體提升模型效率,研究看好「條件記憶」成下一代核心
該論文指出,現行大型語言模型高度依賴計算來檢索基本資訊,這使得模型在擴展規模時,往往得依賴更昂貴、更新一代的 GPU 硬體來換取 HBM 容量,而 HBM 正是目前中、美 AI 硬體實力中最大的差距之一。
因此,DeepSeek 提出的 Engram 方法重點不在於增加算力,而是透過「解耦(decoupling)」計算與記憶體,調整模型架構與資料處理方式,讓模型能更有效率地查找基本資訊,進而提升處理長文本的效率。
論文也提到,這種策略的潛在優勢在於降低訓練成本門檻,讓模型在資源有限的情況下仍能提升複雜推理能力。「我們認為,條件記憶將成為下一代稀疏模型中不可或缺的核心,」研究團隊在論文中如此寫道,並預期條件記憶的未來影響力,將不亞於先前被廣泛採用的專家混合(MoE)架構。
中國限制高階 NVIDIA 晶片採購,加深算力受限現實
這種「繞過 HBM 容量限制」的設計思路並非憑空出現,而是與中國 AI 產業當前所面臨的硬體現實高度契合。
《The Information》報導,中國政府近期已向國內科技公司頒布新令,要求僅能在「特殊情況」下,才可採購 NVIDIA 最新一代高階 AI 晶片H200,顯示北京當局正在強化立場,防止國內市場過度依賴美國晶片巨頭,也反映出中國政府在 AI 領導地位與半導體自給自足這兩大目標之間的權衡。
相關人士指出,北京認為保護本土晶片產業的重要性已超過獲取外國先進晶片,雖然中國晶片商目前已經能生產足以支撐 AI 推論的處理器,但 H200 對於構建前沿 AI 系統仍具有「功能上不可替代」的地位,因此限制獲取這些晶片,可能會減緩中國開發頂尖 AI 模型的速度。
在高階 GPU 取得受限的前提下,這也使得 DeepSeek 所提出、試圖降低對 HBM 與即時計算依賴的訓練方法,顯得格外切合當前中國 AI 產業的實際發展條件。這樣的技術路線,也使 DeepSeek 的模型在部署成本與硬體門檻上相對較低,進一步擴大在算力、資金與基礎設施相對有限地區部署的可行性,更成為微軟近期罕見公開示警的背景之一。
微軟警告:DeepSeek 在西方之外的市場採用率正在領先美國 AI
《金融時報》引述微軟的內部研究指出,DeepSeek 的技術在非洲等新興市場的採用速度明顯加快,例如在衣索比亞的市佔率估計達 18%、辛巴威則有 17%,已成為中國 AI 全球擴張的重要案例。另外在部分美國技術受限的國家,DeepSeek 市佔也取得顯著領先,像是在白俄羅斯的市佔率達 56%、古巴 49%、俄羅斯 43%。
微軟總裁 Brad Smith 警告,中國 AI 公司結合低成本的開源模型與政府補貼,因此在競爭中佔據優勢。「我們必須承認,現在與一年前不同,中國擁有具備競爭力的開源模型,且數量還在增加,他們受益於政府補貼,這使他們能基本上以價格優勢削弱美國公司,」Brad Smith 說。
由於 OpenAI、Google 及 Anthropic 等美國巨頭多採取封閉式架構或訂閱制模式,以完全控制核心技術,並透過訂閱服務或企業軟體交易獲利。相較之下,DeepSeek 的開源定位與低成本特性,更容易被資源有限、無法負擔昂貴方案的開發者與新興市場企業所採用。在這樣的背景下, Brad Smith 特別呼籲,若西方長期忽視這股趨勢,可能會導致與民主價值不符的系統,在非洲這一類人口高成長地區崛起。
從 Engram 與條件記憶的新訓練方法,到開源、低成本的產品定位,DeepSeek 所走的是一條能在硬體受限環境中持續運作的 AI 路線。這樣的技術選擇,不僅回應中國當前的算力現實,也意外契合全球南方市場的需求結構,進而扭轉在西方市場之外的競爭態勢,並成為值得市場關注的重要訊號。
*本文開放合作夥伴轉載,資料來源:《Financial Times》、《The Information》、《SCMP》、arxiv,首圖來源:Unsplash