Arm跨足自製晶片 首款AGI CPU來了 生態系、台積角色地位一次看
【張珈睿/舊金山報導】半導體IP(矽智財)龍頭Arm(安謀)正式邁入「設計+製造」新里程碑。Arm 25日宣布,將其運算平台首度延伸至「量產矽晶片」,並推出專為AI資料中心打造的首款自研處理器「Arm AGI CPU」,鎖定新興代理式AI(Agentic AI)應用,宣示由IP供應商升級為完整平台供應商,全面切入AI基礎設施核心。
Arm首推自有量產晶片 邁入「設計+製造」新里程碑
Arm指出,此舉為公司成立以來首度推出自有量產晶片,產品布局從過往IP授權與Compute Subsystems(CSS),進一步擴展至完整矽晶片,提供客戶從IP、子系統到成品晶片的全方位選擇,加速AI生態系創新。
Arm執行長Rene Haas表示,AI正徹底改變運算架構,特別是具備推理、規劃與行動能力的代理式AI崛起,使運算需求大幅提升。「Arm AGI CPU代表公司發展的重要轉折點,將以高效能、低功耗架構支援全球規模AI基礎設施。」
隨AI應用由模型訓練轉向長時間運作的智慧代理(AI agents),資料中心運算負載正快速轉型。業界指出,AI系統生成的token數量暴增,使得CPU在資料調度、推理與協同運算的重要性顯著提升。
Arm預估,隨AI應用規模擴大,未來每GW資料中心所需CPU算力將較現行提升逾4倍,促使市場對新一代AI專用CPU需求快速升溫。相較傳統x86架構,新平台需同時兼顧高吞吐效能、能源效率與架構簡化。
Arm AGI CPU規格大解析
此次推出的Arm AGI CPU,採用最新Neoverse V3架構,單顆CPU最高達136核心,具備每核心6GB/s記憶體頻寬與低於100奈秒延遲,鎖定高吞吐AI運算需求。
在系統設計上,該晶片支援300W功耗設計(TDP),並採每執行緒對應單一核心架構,可在長時間高負載下維持穩定效能。機櫃部署方面,空冷1U伺服器最高可達8,160核心,液冷系統更可擴展至逾4.5萬核心。
Arm強調,該平台可實現較x86架構「每機櫃效能提升逾2倍」,同時在相同功耗條件下提升運算密度,預估可為每GW AI資料中心節省最高達100億美元資本支出(CAPEX)。
超過50家國際大廠支持 輝達、谷歌、三星、台積一起玩
生態系方面,Arm此次平台升級獲得超過50家國際大廠支持,涵蓋雲端、晶片、記憶體與製造領域,包括AWS、Google、微軟、NVIDIA、三星、SK海力士與台積電等。
其中,台積電將負責Arm AGI CPU製造,採用3奈米製程,強化效能與能效表現。台積電指出,AI資料中心對高效能與可擴展運算需求持續攀升,先進製程將成關鍵支撐。
在客戶端布局上,Meta為首波合作夥伴,並參與共同開發,將Arm AGI CPU導入其資料中心架構,並與自研MTIA AI加速器整合,優化AI工作負載調度效率。
除Meta外,Arm亦宣布已獲多家雲端與企業客戶採用,包括Cerebras、Cloudflare、OpenAI、SAP與SK Telecom等,主要應用於AI加速器管理、控制平面處理及雲端API與應用服務。
硬體供應鏈方面,Arm已攜手永擎、聯想、廣達與Supermicro等OEM/ODM廠,首批系統已開始供貨,預計下半年進一步放量。
業界分析,隨Arm由IP授權跨足自研晶片,將與既有x86陣營及客製化ASIC形成新競合關係,亦可能帶動台灣供應鏈在先進製程、封裝與伺服器系統整合的需求進一步升溫。
整體而言,Arm此次進軍自有矽晶片市場,不僅重塑自身商業模式,也為AI資料中心運算架構帶來新變局,後續與x86及ASIC陣營的競逐態勢備受關注。