請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI需求持續看漲 AI伺服器出貨量年增近4成

NOWnews 今日新聞

更新於 2023年05月29日10:22 • 發布於 2023年05月29日10:22 • 記者許家禎/台北報導
▲ChatGPT掀起旋風,人工智慧運算、雲端服務、半導體與軟體商,都是受惠族群,帶動機器人科技與數位科技的表現空間。(圖/取自Pixabay免費圖庫)
▲AI話題持續延燒,伺服器及AI晶片需求同步看漲,TrendForce預估2023年AI伺服器出貨量近120萬台,年增38.4%。(圖/取自Pixabay免費圖庫)

[NOWnews今日新聞]AI話題持續延燒,伺服器及AI晶片需求同步看漲,TrendForce預估2023年AI伺服器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬台,年增38.4%,占整體伺服器出貨量近9%,至2026年將占15%,同步上修2022到2026年AI伺服器出貨量年複合成長率至22%,而AI晶片2023年出貨量將成長46%。

TrendForce表示,NVIDIA GPU為AI伺服器市場搭載主流,市占率約60到70%,其次為雲端業者自主研發的AISC晶片,市占率逾20%。觀察NVIDIA市占率高的主要原因有三。其一,目前不論美系或中系雲端服務業者(CSP),除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800在平均銷售單價約為A100與A800的2到2.5倍,加上NVIDIA同時積極銷售自家相關整機解決方案。

其二,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,據TrendForce研究,H100本身的價差也依據買方採購規模,會產生近5,000美元的差異。

▲2022年到2026年全球AI伺服器出貨量預估。(圖/TrendForce提供)
▲2022年到2026年全球AI伺服器出貨量預估。(圖/TrendForce提供)

其三,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域(如雲端/電商服務、智慧製造、金融保險、智慧醫療及智慧駕駛輔助等)的開發市場,同步帶動每台搭配4到8張GPU的雲端AI,以及每台搭載2到4張GPU的邊緣AI伺服器應用需求漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。

此外,從高階GPU搭載的HBM來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術規格,其中傳輸速度也較HBM2e快,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升下,TrendForce預估2023年HBM需求量將年增58%,2024年有望再成長約30%。

立即加入NOWnews今⽇新聞官⽅帳號!跟上最HOT時事

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0