獲 SK 海力士青睞、台積 3 奈米晶片流片!Semidynamics 如何靠 RISC-V 打造 AI 推論新架構?
記憶體大廠SK 海力士近期對西班牙RISC-V 晶片公司Semidynamics 進行策略性投資,推動「以記憶體為中心的AI 推論架構」,同時也讓這間西班牙公司映入大家眼簾。
Semidynamics 專注於開發高性能的RISC-V 處理器IP 與完整的AI 解決方案,核心目標是提供比美國現有方案更具競爭力的歐洲替代選擇。雙方合作將聚焦於將 Semidynamics的架構與次世代記憶體技術進行最佳化,外界解讀將推進三奈米 AI 推論晶片的開發。
Semidynamics 目前與台積電合作進行3 奈米流片(tape-out),而上述投資也將用於未來tape-out 及系統層級開發,包括機架平台的建置。
Semidynamics 不只銷售晶片,而是提供包含硬體機架與完整軟體棧(Software Stack)的解決方案,確保產品能在資料中心環境中無縫運作。Semidynamics 執行長Roger Espasa 透露,「如果不提供機架,只提供晶片,對資料中心人士是沒有吸引力的」因此Semidynamics 會帶著完整機架方案進入市場。他也透露若有機會會繼續往2 奈米邁進。
Semidynamics 力拚推第一款引導 Linux 的 AI 處理器
Semidynamics 最初以設計IP 起步,核心目標是整合既有技術,打造完整的AI 解決方案。在底層技術部分, 以Gazzillion 技術讓運算引擎能有效處理距離較遠、延遲較高的記憶體資源。
隨著AI 模型越來越大、上下文增加、AI Agent 啟動需要大量記憶體等「深度推理」變多,記憶體變得越來越重要。Roger Espasa 表示,目前產業普遍依賴HBM,其效能極佳,但成本高昂且供應受限;反之,其他類型記憶體雖然成本較低,但存取速度較慢,若沿用傳統GPU 架構,效能將難以發揮。Semidynamics 的目標正是突破這個限制,讓系統能夠有效利用「非HBM」記憶體,這也是Gazzillion 技術的核心價值所在。
Espasa 指出,傳統CPU 架構(如Intel 或AMD)高度依賴快取命中率,設計目標是讓約95% 的資料存取都在快取中完成,但在AI 工作負載下則失效,因此NVIDIA 採用高速HBM 來繞過快取瓶頸。而Gazzillion 採取不同路徑,當資料不在快取中時,系統不會像傳統CPU 一樣停頓等待,而是持續推進運算流程,透過架構層級的改變來隱藏記憶體延遲,從而在較慢記憶體條件下仍維持高效運作。
為了在資料中心實現「統一記憶體」(Unified Memory),Semidynamics 目標致力於讓AI 系統更容易被編程,Espasa 認為,過去30 年在CPU 領域累積的統一記憶體與易用性經驗,並沒有真正延伸到AI 架構中。當前AI 生態更像是各種新創架構的拼貼,每個都試圖成為最佳解,但過度差異化往往導致軟體生態難以跟進。因此,透過Gazzillion 技術,目標是在資料中心層級真正實現統一記憶體,並提供簡單且可延續的軟體環境。
Espasa 表示,Semidynamics 是最早投入RISC-V 團隊之一,並且率先開發RISC-V 向量單元(Vector Unit)。他也透露,甚至將會推出第一款引導Linux 的AI 處理器,使任何能在Linux 上運行的軟體都能直接在Semidynamics 的加速器上運行,「我們不打算為單一模型(如Llama 或ChatGPT)打造專用晶片,而是確保提供工具,以便人們可以發明新東西」。
樂見TurboQuant 技術,AI 生態發展不會因壓縮技術改變
Semidynamics 的願景是以品牌「Atrevido」為起點,該品牌代表基於自家IP 所打造的SoC,並進一步向上延伸,整合成系統級架構。其中關鍵在於我們圍繞核心技術所建構的「記憶體系統」,這不僅是設計上的選擇,更是吸引SK 海力士關注的重要原因。
Espasa 認為,「DeepSeek 時刻」之所以引發市場關注,是因為一個來自不同路徑的模型在短時間內改變了市場預期並造成一定程度的恐慌。但他認為,這類事件其實是必然會反覆出現的現象。未來不一定每六個月,但幾乎每一年都會有來自前沿實驗室、大學或其他研究機構的新突破模型出現。因此,公司必須把「可編程性」作為核心原則,確保無論AI 技術如何演進,硬體架構都能持續跟隨與適配。
他進一步表示,在這樣的環境下,有許多變化正在被密切觀察。公司每天都高度關注記憶體市場的動態,同時也持續追蹤AI 模型本身的演進,例如新的資料表示方式與量化技術的出現,甚至已經出現如1.2-bit 這類極低精度模型。他認為,這些創新將持續推動硬體與軟體之間的協同演進。
談到Google 最新快取壓縮技術TurboQuant 時,Espasa 強調,任何能降低記憶體需求的技術本質上都是正面的,無論是TurboQuant 還是其他類似技術,只要能減少記憶體壓力,都對整個產業有利。這類技術不會削弱對硬體的需求,反而可能促進模型規模的進一步擴張。當工具變得更有效率時,使用者通常不會減少使用,而是選擇「用得更多」,即使TurboQuant 降低單位模型的記憶體需求,實際結果往往是模型變得更大、應用場景更多,整體記憶體消耗並不會下降。從這個角度來看,AI 生態的發展路徑並不會因壓縮技術而改變。
他也補充,即便未來出現更多中小型模型,或企業開始部署多個Agent 系統,記憶體需求依然會持續擴張。因為一旦從單一模型轉向多Agent 架構,即使每個模型較小,整體系統的記憶體與運算需求仍會快速累積。因此,無論是模型變大、還是Agent 數量增加,本質上都會推動對記憶體與基礎設施的長期需求成長,形成對整個產業都有利的擴張循環。
Semidynamics 已從歐洲及西班牙的創新計畫中獲得4,500 萬歐元資金,用於建構完整的AI基礎設施平台。
Semidynamics 成立於2016年,總部位於巴塞隆納,專注於開發以記憶體為核心的A I基礎設施,並採用Gazzillion 記憶體子系統技術,旨在解決所謂的「記憶體牆」問題,即處理器速度與記憶體頻寬之間的差距。
(首圖來源:科技新報)