請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

研調:今年全球AI伺服器出貨量估年增近四成

MoneyDJ理財網

發布於 2023年05月29日09:27

MoneyDJ新聞 2023-05-29 17:27:13 記者 新聞中心 報導

AI伺服器及AI晶片需求同步看漲,TrendForce預估今(2023)年AI伺服器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬台、年增38.4%,占整體伺服器出貨量近9%,至2026年將占15%,同步上修2022-2026年AI伺服器出貨量年複合成長率(CAGR)至22%;並預計AI晶片今年出貨量將成長46%。
TrendForce表示,NVIDIA GPU為AI伺服器市場搭載主流,市占率約60-70%,其次為雲端業者自主研發的AISC晶片,市占率逾20%。觀察NVIDIA市占率高的主要原因有三,其一,目前不論美系或中系雲端服務業者(CSP),除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800在平均銷售單價約為A100與A800的2-2.5倍,加上NVIDIA同時積極銷售自家相關整機解決方案。
其二,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,據TrendForce研究,H100本身的價差也依據買方採購規模,會產生近5,000美元的差異。
其三,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域(如雲端/電商服務、智慧製造、金融保險、智慧醫療及智慧駕駛輔助等)的開發市場,同步帶動每台搭配4-8張GPU的雲端AI,以及每台搭載2-4張GPU的邊緣AI伺服器應用需求漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。
此外,從高階GPU搭載的HBM(高頻寬記憶體)來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI伺服器系統運算效能;隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升下,TrendForce預估今年HBM需求量將年增58%,明(2024)年有望再成長約30%。

延伸閱讀:

黃仁勳:繪圖處理器效能5年提升千倍 超越摩爾定律

實現智慧工廠和自動化工業檢測!和碩 AI 伺服器導入輝達 A100 GPU

資料來源-MoneyDJ理財網

查看原始文章

更多理財相關文章

01

快訊/川普關稅反噬來了?美股開盤4大指數全跌

三立新聞網
02

電信三雄1/21下午四點進行災防告警測試 若收到警報無須驚慌

太報
03

〈美股早盤〉格陵蘭爭議衝擊市場!股債匯齊挫 道指跌逾600點

anue鉅亨網
04

快訊/南亞科驚爆500億資本支出創天量 官方突發重訊:尚待董事會核定

三立新聞網
05

2025 年全球車主最愛車色排行出爐!鮮豔色市佔提升

自由電子報
06

電信三雄21日下午4時 全台災防告警訊息測試

中央通訊社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...