請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI算力荒「解藥」現蹤?HPE聯手瞻博祭出100T黑科技 斷開GPU閒置魔咒

商傳媒

更新於 01月26日05:56 • 發布於 01月26日06:50 • service@sunmedia.tw (商傳媒 SUN MEDIA)
圖/AI生成

商傳媒|記者陳宜靖/綜合外電報導

進入2026年,全球AI軍備競賽已從單純的「晶片數量戰」,快速演進為更關鍵的「資料傳輸效率戰」。隨著企業對大型語言模型(LLM)訓練需求爆發,資料中心網路架構正迎來典範轉移。HPE近日於 HPE Discover Barcelona 2025 大會上,正式揭曉完成收購 Juniper Networks 後的整合成果,推出具備 102.4Tbps 超高頻寬、搭載 Broadcom Tomahawk 6 晶片的全新 QFX5250 交換機,直指AI訓練中長期存在的GPU「閒置(Idle)」痛點。

AI訓練的隱形殺手:網路丟包成為算力瓶頸

產業調查顯示,在現行大規模AI訓練任務中,逾20% 的任務失敗並非算力不足,而是網路品質問題。由於AI模型需在數以萬計GPU間進行高頻RDMA(遠端直接記憶體存取)通訊,只要發生微量封包遺失(Packet Loss),GPU便會進入等待狀態,造成昂貴算力與電力資源白白耗損。

HPE Japan 技術顧問總監塚本弘美(Hiromi Tsukamoto)指出,AI基礎設施的競爭核心已從「堆疊硬體」轉向「全局網路穩定性」。唯有具備即時擁塞避免與智慧調度能力的網路,才能真正釋放GPU效能。

102.4T怪獸級交換機登場 主打開放、非專有架構

QFX5250 被視為 HPE 與 Juniper 合體後的代表作,具備 102.4Tbps 總交換容量,最高可支援 64 個 1.6Tbps 連接埠,屬於首波採用 Broadcom Tomahawk 6 晶片的資料中心交換機。

相較於封閉式專有架構,HPE選擇擁抱超乙太網路(Ultra Ethernet)標準,被市場解讀為試圖打破高端AI網路長期存在的供應商鎖定(Vendor Lock-in)局面。QFX5250內建 DCQCN 擁塞控制、動態負載平衡(DLB)與 RDMA 感知負載平衡(RLB)等功能,目標是將封包遺失風險降至趨近於零,讓GPU算力「即插即用、全速運轉」。

液冷技術延伸至網路設備 日本市場率先驗證

在算力密度急遽攀升下,散熱已成資料中心最大挑戰之一。HPE將伺服器領域成熟的液冷技術導入網路設備,使 QFX5250 成為市面上少數支援 100% 液冷設計 的交換機,有助於降低PUE值並節省機房空間。

亞洲市場方面,日本科技業者 CyberAgent 已在其AI資料中心導入前一代 QFX5240(800G 規格),並給予正面評價。隨著 QFX5250 預計於2026年正式商用,市場預期包括 NTT Group 在內的電信與雲端服務商,將啟動新一波基礎設施升級。

台灣視角:效能之外,仍須跨越法規與ESG門檻

儘管技術規格亮眼,專家提醒,大規模AI網路升級涉及高昂轉換成本,企業仍須同時考量資安審驗、能源效率與ESG規範。在台灣,通訊設備資安與綠色能源要求日趨嚴格,HPE能否將液冷與節能優勢,轉化為符合本地法規的完整解決方案,將成其拓展台灣市場的關鍵。

整體而言,HPE與Juniper的整合效應已於2025年底逐步顯現,2026年可望成為產品密集落地的關鍵年。QFX5250的推出,象徵AI網路正式邁入「100T時代」。在乙太網路陣營全面反攻下,能否動搖既有專有架構主導地位,全球市場正持續觀察。

查看原始文章

更多理財相關文章

01

勞動基金114年大賺1兆1177億元 逾半來自台股

中央通訊社
02

台股反彈狂飆669點「重返3萬2」 台積電漲45元至1810元

台視
03

〈台股開盤〉強漲逾600點收復連三跌過半失土 電子權值股攜PCB、記憶體上攻

anue鉅亨網
04

夢境成真馬上發 超強運彰化男2度刮中100萬

NOWNEWS今日新聞
05

記憶體股現史詩級崩跌 原來是這個原因

經濟日報
06

黃仁勳返美 下一站直奔休士頓!意外曝露最愛1零食 竟是它

三立新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...