請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

微軟推出 Maia 200 AI 推理晶片 革新數據中心AI運算效能與成本架構

TechApple.com

發布於 02月01日01:30

微軟為其端對端人工智能基礎設施發展揭開新篇章,正式推出專為AI推理工作設計的Maia 200晶片。這款創新加速器旨在突破現有瓶頸,為運行大型人工智能模型提供更高速、高效且具成本效益的解決方案,標誌著微軟在自研AI晶片領域的重要進展。

專為巨量模型設計的效能核心

Maia 200晶片被定位為微軟至今部署過最高效能的AI推理系統,其設計核心在於處理當今最複雜的大型語言模型與多模態模型。關鍵效能指標顯示,Maia 200的每美元效能較市場現有系統高出百分之三十,在關鍵的低精度運算上表現突出,其FP4推理效能達到亞馬遜第三代Trainium晶片的三倍,而FP8效能亦超越Google的第七代TPU。

如此顯著的效能提升,奠基於多項先進硬件技術的整合。晶片採用台積電五納米製程打造,專為大規模AI工作負載優化。其核心整合了原生支援FP8與FP4數據格式的張量核心,能顯著提升低精度運算的效率,這對於以推理為主的AI應用至關重要。記憶體系統則配置了高達216GB的HBM3e記憶體,提供每秒7TB的驚人頻寬,並搭配272MB的片上SRAM,確保大型模型的參數能被快速存取。內建的數據傳輸引擎進一步保證模型在運行時能維持高速與高利用率,使單一節點即能駕馭當前規模最龐大的AI模型。

統一網絡架構驅動無縫擴展

為了支撐數據中心級別的龐大AI叢集運算,Maia 200引入了統一的乙太網絡架構。這套架構旨在為節點、機架乃至整個叢集之間,提供可擴展、可靠且高效的網絡連接。其網絡設計結合了每個加速器高達每秒1.4TB的網絡頻寬,並在硬件托盤模組內部採用直接連接設計,大幅減低數據傳輸延遲。

貫穿整個系統的,是微軟特別為AI工作負載開發的「Maia AI傳輸協議」。這套協議與硬件深度整合,確保系統在橫向擴展以處理更龐大任務時,能實現無縫的協同運作。這種從晶片層到叢集層的整合設計,不僅提升了整體網絡的靈活性與效率,更有效降低了系統擴展時的耗電量與總生命週期成本,實現了雲端規模所需的經濟效益與運算效能。

與數據中心生態深度整合的設計哲學

Maia 200從研發初始,就以實現與現有數據中心基礎設施無縫整合為核心目標。研發團隊並行驗證了系統中最複雜的組件,包括後端網絡架構以及冷卻解決方案。微軟為此系統配備了第二代閉環液冷式熱交換單元,這種先進的冷卻技術能高效帶走高密度運算所產生的巨大熱量,確保晶片能在最佳溫度下穩定運行。

這種強調整合驗證的流程,確保了Maia 200系統從部署上線伊始,就能達到企業級數據中心所要求的高度可靠性與可維護性。這種設計哲學讓晶片不僅僅是一個獨立元件,而是能立即融入並強化現有雲端基建的關鍵組成部分。

驅動微軟AI生態的實際部署

微軟已開始在其內部AI生態系統中部署Maia 200晶片。首先將由微軟超級智慧團隊用於關鍵的AI研發工作,例如大規模合成數據生成和強化學習訓練。隨後,其運算能力將擴展至支援「Microsoft Foundry」服務平台,並為「Microsoft 365 Copilot」等生產力人工智能應用提供底層動力。

長遠而言,微軟計畫將基於Maia 200的運算服務延伸給全球的Azure雲端客戶。透過這種統一的設計框架,微軟將晶片硬件、人工智能模型與終端應用程式進行垂直整合,目標是優化從底層硅晶片到上層AI體驗的整個端對端架構。這項策略旨在為企業與終端用戶帶來效能更強大、成本結構更優化,且體驗更為一致可靠的人工智能服務。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...