請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

全球 AI Server 需求高漲!有望帶動年產值達1870億美元

經濟日報

更新於 2024年07月17日07:45 • 發布於 2024年07月17日07:00
全球AI Server需求高漲。記者吳康瑋/攝影

根據集邦(TrendForce)最新發布「AI Server(伺服器)產業分析報告」指出,2024年大型CSPs及品牌客戶等對於高階AI Server的高度需求未歇,加上CoWoS原廠TSMC及HBM原廠如SK hynix、Samsung及Micron逐步擴產下,於今年第2季後短缺狀況大幅緩解,連帶使得NVIDIA(輝達)主力方案H100的交貨前置時間(Lead Time)從先前動輒40-50周下降至不及16周,因此TrendForce預估AI Server第2季出貨量將季增近20%,全年出貨量上修至167萬台,年增率達41.5%。

集邦表示,今年大型CSPs預算持續聚焦於採購AI Server,進而排擠一般型server成長力道,相較於AI server的高成長率,一般型server出貨量年增率僅有1.9%。而AI Server占整體server出貨的比重預估將達12.2%,較2023年提升約3.4個百分點。若估算產值,AI Server的營收成長貢獻程度較一般型server明顯,預估2024年AI Server產值將達逾1,870億美元,成長率達69%,產值占整體server高達65%。

從AI server搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國大陸本土業者如Ali、Baidu、Huawei等積極擴大自主ASIC方案,促ASIC server占整體AI server的比重在2024年將提升至26%,而主流搭載GPU的AI Server占比則約71%。

就AI Server搭載的AI晶片供應商分布來看,單看AI server搭載GPU,NVIDIA市占率最高、逼近9成,AMD(超微)市占率則僅約8%。但若加計所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率則約64%。

據集邦的調查,展望2025年市場對於高階AI Server需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平台成為市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預估2025年主要供應商TSMC的CoWoS生產量規模至年底總產能可達550k-600k,成長率逼近8成。

另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,將搭載達288GB的HBM3e,單位用量成長逾3倍,隨AI server市場需求持續強勁下,有望帶動2025年HBM整體供給量翻倍成長。

享受更高質量的財經內容 點我加入經濟日報好友

查看原始文章

更多理財相關文章

01

台灣關稅15%!政院曝「雙向投資機制」:美將擴大投資「五大信賴產業」

民視新聞網
02

台美關稅協議拍板、獲半導體232條款最優惠待遇 台積電回應了

鏡報
03

BOSS魔王級擂台較勁 10張百萬信用卡爭霸主

卡優新聞網
04

行政院宣布台灣對等關稅15%不疊加簽署MOU! 還獲232最惠國待遇

新頭殼
05

好想要財富自由💰台人退休預算大調查:你存到1321萬了嗎

LINE TODAY 討論牆
06

廣達尾牙登場!林百里:未來3年是AI爆發期

NOWNEWS今日新聞
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...