聯手 Google 擴大開發 IPU!Intel 瞄準 AI 推論,將晶片戰局拉向系統架構之爭
AI 應用的逐漸擴散,推動了對傳統運算晶片的新需求。根據《Reuters》等多家外媒報導,Intel 與 Google 最新宣布擴大合作,將持續採用 Xeon 處理器,並擴大基於 ASIC 的客製化基礎設施處理器(IPU)共同開發,顯示 AI 運算架構正在從單一加速器導向,轉向更複雜的系統競爭。
Intel 指出,透過這項合作,Intel 與 Google 將在多個世代的 Intel Xeon 處理器上進行協同優化,提升 Google 全球基礎設施的效能、能源效率,以及整體擁有成本(TCO)。
從訓練到推論:AI 基礎設施進入新階段
這項合作的真正關鍵,在於 AI 工作負載結構的轉變。過去幾年,AI 產業競爭集中在模型訓練,帶動 GPU 成為市場主角;但隨著企業開始大規模部署 AI 應用,運算需求正快速延伸至推論與實際營運場景。《Reuters》指出,這使得可以處理大量即時運算與多任務負載的 CPU 再度成為關鍵,重新回到 AI 基礎設施的核心位置。
另一推動這波轉變的關鍵動力是 Agentic AI 的快速發展。不同於過去以聊天機器人為主的單一回應模式,Agentic AI 能執行多步驟任務,涉及決策、規劃與跨系統操作,對運算資源的需求大幅提升。
《Reuters》指出,這類 AI 系統的興起,正顯著增加對 CPU 運算能力的需求。原因在於,這類任務不僅需要模型推論,還涉及資料處理、任務協調與系統調度,這些正是 CPU 擅長的領域。
《CNBC》報導更指出,隨著 AI 工作負載愈加複雜,CPU 正逐漸成為系統瓶頸。NVIDIA AI 基礎設施負責人 Dion Harris 就直言,在代理式 AI(Agentic AI)興起後,運算需求正從 GPU 轉移到 CPU,而 CPU 正在「成為瓶頸」。
Intel 執行長陳立武也在聲明中強調,AI 擴展不再只是加速器的問題,而是整體系統設計的問題。他指出:「AI 的規模化需要的不只是加速器,而是平衡的系統,CPU 與 IPU 是提供效能、效率與靈活性的核心。」
IPU 補位:從晶片競爭走向系統架構競爭
在這樣的架構轉變中,IPU 成為另一個關鍵角色。根據 Intel 說明,IPU 主要負責處理原本由 CPU 承擔的網路傳輸、儲存管理與資安等基礎工作,藉此釋放 CPU 資源,提升整體系統效率。
Google 告訴《CNBC》,這類晶片能處理資料中心中的「額外負擔」,例如網路流量路由、資料加密、儲存管理與運行虛擬化軟體,使主運算資源(CPU)得以專注在高價值任務上。這種分工模式,正逐步形成 CPU、GPU 與專用加速器協同運作的異質運算架構。
Intel 在官方說明進一步指出,IPU 與 Xeon CPU 的整合,將能在不增加系統複雜度的前提下提升運算效率,並讓大型 AI 基礎設施更具可擴展性。這意味著,AI 晶片競爭的焦點,正從單一晶片效能,轉向整體系統架構設計能力。
Intel 的反攻:從失去優勢到重返 AI 核心
對 Intel 而言,這項合作更具有戰略意義。在 AI 初期由 GPU 主導的競爭中,Intel 一度失去市場主導權,但隨著產業進入推論與部署階段,為 Intel 帶來重新切入的機會。
《Reuters》指出,CPU 需求的回升,有助於 Intel 改善財務體質並吸引新客戶。同時,該公司近期也積極擴張版圖,包括參與 Elon Musk 的 Terafab AI 晶片計畫,以及收回愛爾蘭晶圓廠股權,以強化製造能力。《CNBC》也提到,Intel 股價在相關合作與投資消息帶動下明顯上升,反映市場對其在 AI 基礎設施領域重新定位的期待。
【推薦閱讀】
◆ Intel 加盟 Terafab:從自建超級晶圓廠走向合作製造,揭馬斯克 AI 晶片布局的戰略分工
*本文開放合作夥伴轉載,資料來源:《Reuters》、Intel、《CNBC》、《Knowledge Hub》,首圖來源:Intel