請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

全球 AI Server 需求高漲!有望帶動年產值達1870億美元

經濟日報

更新於 2024年07月17日07:45 • 發布於 2024年07月17日07:00
全球AI Server需求高漲。記者吳康瑋/攝影

根據集邦(TrendForce)最新發布「AI Server(伺服器)產業分析報告」指出,2024年大型CSPs及品牌客戶等對於高階AI Server的高度需求未歇,加上CoWoS原廠TSMC及HBM原廠如SK hynix、Samsung及Micron逐步擴產下,於今年第2季後短缺狀況大幅緩解,連帶使得NVIDIA(輝達)主力方案H100的交貨前置時間(Lead Time)從先前動輒40-50周下降至不及16周,因此TrendForce預估AI Server第2季出貨量將季增近20%,全年出貨量上修至167萬台,年增率達41.5%。

集邦表示,今年大型CSPs預算持續聚焦於採購AI Server,進而排擠一般型server成長力道,相較於AI server的高成長率,一般型server出貨量年增率僅有1.9%。而AI Server占整體server出貨的比重預估將達12.2%,較2023年提升約3.4個百分點。若估算產值,AI Server的營收成長貢獻程度較一般型server明顯,預估2024年AI Server產值將達逾1,870億美元,成長率達69%,產值占整體server高達65%。

從AI server搭配AI晶片類型來看,來自北美CSPs業者(如AWS、Meta等)持續擴大自研ASIC,以及中國大陸本土業者如Ali、Baidu、Huawei等積極擴大自主ASIC方案,促ASIC server占整體AI server的比重在2024年將提升至26%,而主流搭載GPU的AI Server占比則約71%。

就AI Server搭載的AI晶片供應商分布來看,單看AI server搭載GPU,NVIDIA市占率最高、逼近9成,AMD(超微)市占率則僅約8%。但若加計所有AI server用AI晶片(包含GPU、ASIC、FPGA),NVIDIA今年市占率則約64%。

據集邦的調查,展望2025年市場對於高階AI Server需求仍強,尤其以NVIDIA新一代Blackwell(包含GB200、B100/B200等)將取代Hopper平台成為市場主流,此亦將帶動CoWoS及HBM等需求。以NVIDIA的B100而言,其晶片尺寸將較H100翻倍,會消耗更多的CoWoS用量,預估2025年主要供應商TSMC的CoWoS生產量規模至年底總產能可達550k-600k,成長率逼近8成。

另以HBM用量來看,2024年主流H100搭載80GB HBM3,到2025年NVIDIA Blackwell Ultra或AMD MI350等主力晶片,將搭載達288GB的HBM3e,單位用量成長逾3倍,隨AI server市場需求持續強勁下,有望帶動2025年HBM整體供給量翻倍成長。

享受更高質量的財經內容 點我加入經濟日報好友

查看原始文章

更多理財相關文章

01

台積電變美積電?經濟部「緊急聲明」

三立新聞網
02

獨家》相信黃董!黃崇仁寫信給力積電員工透露賣廠秘辛

自由電子報
03

力積電銅鑼廠確定賣給美光 18億美元現金入袋、直攻AI商機

anue鉅亨網
04

台美關稅15%拍板!她揭華府內幕消息:台灣團隊層級之高「美方大吃一驚」

民視新聞網
05

569億現金入袋! 黃崇仁自曝「這原因」力積電晶圓廠售美光

CTWANT
06

台積電:台灣再蓋4座先進封裝廠 22日宣布 打臉在野殺「積」取卵說

自由電子報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...