請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

儲存運算(In-Memory Computing)是什麼?AI時代的計算革命?

TechApple.com

發布於 2025年10月26日08:19

當前人工智能(AI)與大數據高速發展的時代,傳統計算架構因資料頻繁在記憶體與處理器間移動而面臨效率瓶頸。儲存運算(In-Memory Computing, IMC)作為一種革新的計算模式,從根本上改變了資料處理方式,將計算挪進記憶體內部,大幅縮減資料來回傳輸能耗與時間,成為推動下一代AI硬體與應用的關鍵技術。

什麼是儲存運算?

儲存運算是一種非冯·诺依曼架構的運算方式,其核心概念是在記憶體元件中直接執行計算任務,縮短處理單元與記憶體之間的數據傳輸路徑,從而顯著提升能效與計算速度。傳統電腦架構需要將資料從記憶體讀取到中央處理器(CPU)或圖形處理器(GPU)中運算,再回寫結果,造成大量時間與能源浪費。IMC通過利用記憶體陣列本身的物理特性,在「原地」(in-place)完成運算,解決長久以來的「記憶體牆」問題。

一般所說的「儲存運算」多指In-memory computation中,主要是將矩陣乘法等大量並行計算直接映射到記憶體硬體層面完成。這對於深度學習中的向量與矩陣操作尤為重要,因為矩陣乘法是神經網絡運算的核心瓶頸。

目前的技術實現與硬體挑戰

儲存運算通常依靠新興的非揮發性記憶體(Non-Volatile Memory,NVM)技術,例如相變記憶體(Phase-Change Memory,PCM)、電阻切換記憶體(Resistive RAM,ReRAM)等,這些技術不僅允許在一個單元元件內同時儲存權重(weight)與執行加權加總操作,還具備高密度和低功耗的優勢。

IBM研究團隊在此領域持續取得突破,開發出多款先進的Analog AI晶片,例如2023年發表的64核混合訊號相變記憶體計算晶片,可在影像識別任務中達到高達92.81%的準確率,且在每平方毫米運算吞吐量(GOPS/mm²)比同類技術提升超過15倍,能源效率亦同時達標。

這種晶片不僅將神經網絡的「突觸」運算原地實現,模擬生物神經網絡中實體固定的神經元與突觸結構,同時結合低精度類比計算和先進架構設計,包括多核心與大量神經運算單元,推動實用化與商業量產的可能。

儲存運算帶來的能效與速度優勢

傳統CPU與GPU架構,尤其是在AI推理環節,主要耗費在反覆存取權重參數與神經元激活值,而大量能源消耗來自資料在記憶體與運算核心之間的頻繁移動。儲存運算從根本上解決此瓶頸,在記憶體陣列內直接算出部分運算結果,避免冗長資料路徑。

架構同時支持高度並行的矩陣-向量乘法,加速深度神經網絡中的關鍵運算單元,如卷積層和注意力機制,能夠在功率消耗顯著降低的情況下,保持或提升推理效能。IBM的研究指出,此類晶片運算的能耗可降低至每操作數產生僅飛秒焦耳(femtoJoule)等級,同時通過硬體感知的訓練算法,保證神經網絡精度媲美純數字運算。

儲存運算在AI與其他領域的應用前景

儲存運算技術目前主要推動AI模型推理的硬體加速,尤其是大規模深度神經網絡和Transformer架構。由於Transformer中多層基於矩陣乘法的計算極為密集,IMC能有效加速這些模型的運算,提升雲端及邊緣AI設備的性能。此外,混合專家模型(Mixture of Experts, MoE)亦是IMC發揮巨大優勢的方向。

除了AI外,IMC也適用於科學計算、資料庫查詢及大數據分析等領域。其極速處理和高並行能力,能驅動即時分析、金融風險管理及高頻交易等對時延和準確度要求極高的場景。

參考來源:https://research.ibm.com/projects/in-memory-computing

查看原始文章
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...