請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

NVIDIA B200 登場!Supermicro AI 伺服器效能狂飆 3 倍,測試資料公開

三嘻行動哇 Yipee!

發布於 2025年04月05日12:46
Nvidia HGX B200 Systems

Supermicro 近期發表最新 AI 伺服器,搭載 NVIDIA HGX B200 8-GPU,在 MLPerf Inference v5.0 測試中展現壓倒性優勢,效能比前一代 H200 提升 3 倍以上。

這些伺服器包含 4U 液冷與 10U 風冷 版本,並已正式投入運作,測試結果顯示無論是大型 AI 模型推理(Inference)或生成式 AI 任務,B200 系統均大幅領先上一代產品。

MLPerf 測試數據公開,B200 效能全面領跑

根據 MLPerf Inference v5.0 的測試結果,Supermicro 的 B200 伺服器展現以下優勢:

  • Llama3.1-405B(離線測試):每秒 1521.74 個 Token
  • Llama3.1-405B(伺服器測試):每秒 1080.31 個 Token
  • Llama2-70B(互動模式):每秒 62,265.70 個 Token
  • Stable Diffusion XL(影像生成):每秒 28.92 個查詢
  • Mixtral 8x7B(伺服器模式):每秒 129,047 個 Token
  • Mixtral 8x7B(離線模式):每秒 128,795 個 Token

這些數據顯示,B200 不僅在語言模型(Llama、Mixtral)推理效能大幅提升,連影像生成(Stable Diffusion XL)也有強大表現。

風冷 vs 液冷,哪種散熱方案更強?

Supermicro 這次推出 風冷與液冷兩種版本 的 B200 伺服器,並在測試中顯示:

  • 風冷版 B200 在效能表現上與液冷版幾乎相同,且更容易部署。
  • 液冷版 B200 採用全新 250kW 冷卻液分配裝置(CDU),散熱能力比上一代提升 2 倍以上。

機架設計方面,Supermicro 提供 42U、48U、52U 三種機架方案,最多可容納 96 顆 NVIDIA Blackwell GPU,進一步提高 AI 訓練與推理密度。

B200 真的值得升級嗎?

根據測試數據,Supermicro B200 伺服器適合 大型 AI 訓練、推理以及高效能運算(HPC),相較前代 H200,具備:

  • 推理效能提升 15 倍
  • 訓練效能提升 3 倍
  • 大幅降低功耗與散熱需求

對於企業 AI 部署來說,這款系統能有效提升運算效能,同時降低基礎設施成本。

Supermicro 持續 AI 伺服器市場

Supermicro 目前提供超過 100 款 GPU 優化伺服器,涵蓋從單插槽系統到 8 路多處理器系統,支援 風冷與液冷 方案。

這次 MLPerf Inference v5.0 測試證明,Supermicro B200 伺服器已經成為市場上最強 AI 運算平台之一,無論是 AI 研究機構、大型企業還是雲端數據中心,都能透過這款新系統獲得前所未有的效能優勢。

▶ 延伸閱讀

圖片及資料來源:美通社、Supermicro

查看原始文章

更多理財相關文章

01

台積電緊急重訊!第三季「現金股利」調整

三立新聞網
02

中東衝突引爆賣壓!台股大跌771點、失守3萬5大關 台積電收1935元

民視新聞網
03

台灣1行動支付傳倒閉!多名用戶錢領不出 官方回應了

CTWANT
04

勞退分紅來了!772萬人爽領逾2萬 近4成晉身「5萬」俱樂部 這幾招線上查詢入帳

anue鉅亨網
05

震撼!卡達停產天然氣 經濟部成立應變小組

太報
06

蘋果新機 iPhone 17e 突襲發表!儲存空間上看 256GB、支援 MagSafe

自由電子報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...