請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

整理包/NVIDIA 再秀 AI 黑科技! HGX H200處理器搭載最新 HBM 將成最強晶片?供應商、概念股有哪些 四大亮點一次看

經濟日報

更新於 2023年11月14日14:27 • 發布於 2023年11月14日09:35
AI榮景,帶動台灣伺服器出口大爆發,圖左為超微執行長蘇姿丰與輝達執行長黃仁勳,兩家公司均為AI產業指標大廠。
美光擁有HBM3e技術。
美光執行長梅羅塔日前指出,台灣將會是美光 HBM3E 產品的首發量產地,預期2024年Q1就會量產。

AI晶片龍頭輝達(NVIDIA)宣布,推出全新AI產品「HGX H200」,主打超高容量與更大的頻寬,算力更為精進,明年第2季開始出貨,其中,採用高頻寬記憶體(HBM)「HBM3e」更是讓外界眼睛一亮 ,預期將再掀起一波AI熱潮。對此,《經濟日報》整理相關資訊,供讀者參考比較。

NVIDIA 這次推出新品來頭可不小,最新 HGX H200 處理器配備 H200 Tensor Core GPU,並具有先進的記憶體(HBM),可為生成式AI與高效能運算(HPC)的工作負載處理大量資料。

亮點一 :號稱「地表強AI晶片」有影?

隨著產品發表,不少人稱 H200 是地表最強晶片,根據 NVIDIA 說明, HGX H200配備 H200 Tensor Core GPU,並具有先進的記憶體,可為生成式AI與高效能運算(HPC)的工作負載處理大量資料。

H200與前代產品 H100相比,在 Llama 2 這樣擁有700億參數大型語言模型(LLM)實測中,推論速度將近翻倍提升。而 H100 是 OpenAI 用於訓練其最先進的大型語言模型 (LLM) GPT-4 的晶片, H200的推出無疑能大幅提升AI訓練程度。

此外,與前一代產品 A100 相比,容量幾乎翻倍,頻寬增加2.4倍,可部署在各種類型的資料中心中,包括本地、雲端、混合雲和邊緣環境等。

還不清楚AI有哪些產品?輝達、超微、英特爾各專注在哪一次看:

整理包/ AI 盛事「吉時到」?AMD、Intel 財報優預期 還有台灣「護國群山 」撐盤 七大觀念、概念股一次看

亮點二: HBM3E 將讓 NVIDIA封神?

NVIDIA 此次推出 H200,是首款提供 HBM3e 規格的 GPU,可加速生成式AI和大型語言模型,並能推進 HPC 工作負載的科學運算,以每秒4.8 TB 速度提供141GB 記憶體。

據我們所知,不管是伺服器廠商業或是雲端業者、AI模型,追求的不只要有更高規格的AI晶片,還要求更棒的算力,此時,就需要更有效能、更複雜的記憶體,而這項產品就是 HBM。

HBM(High Bandwidth Memory )中文名稱為高頻寬記憶體,簡單來說,是一種藉由封裝技術堆疊多層 DRAM,以此降低體積並增加儲存空間、功率的記憶體。

同時,根據全球第三大 DRAM 廠美光執行長梅羅塔上周出席台廠啟用典禮表示,美光的 HBM3E 已能做到每個八層 DRAM 堆疊高頻寬記憶體,厚度僅為人類頭髮的一半,頻寬可達24GB。(延伸閱讀美光:AI讓記憶體潛力無窮 台中四廠將領先全球量產高頻寬晶片

根據美光對 HBM3E 說法, HBM3E 增加的記憶體頻寬可改善系統層級的效能,將訓練時間縮短,與上一代的 HBM3 比起來,在技術上可說是一大突破,台灣則是美光 HBM3E 產品的首發量產地,預期2024年Q1就會量產,但還不確定何時出貨。

至於, NVIDIA 此波產品背後供應商是否就是美光,目前雙方都未證實。

亮點三: H200明年Q2出貨 台供應商受惠?

NVIDIA 指出,H200軟硬體皆與 HGX 100系統相容,也可與今年8月推出、採用 HBM3e 的 GH200 Grace Hopper 超級晶片模組搭配使用。對此,伺服器生態系合作夥伴,包括華碩(2357)、技嘉、雲達、緯創、緯穎、美超微、永擎電子、慧與、戴爾、聯想、鴻佰、Eviden 等,都可使用基於 H200的直接替換方式來更新其基於 H100的系統。

同時,亞馬遜網路服務、Google Cloud、微軟 Azure 和 Oracle Cloud Infrastructure 也將成為第一批部署基於 H200 執行個體的雲端服務供應商。

另外,若美光成為 NVIDIA 在 HBM3E上的供應商,華邦(2344)、鈺創、晶豪科、愛普等記憶體台廠也有望受惠。(延伸閱讀台灣記憶體廠衝人工智慧 華邦、愛普打先鋒

亮點四: AMD與 NVIDIA 將要正面對決?

雖然 NVIDIA 的 HGX H200在技術上取得突破,不過, AMD執行長蘇姿丰今年(2023年)6月發表 GPU 產品 MI300X,除了號稱提供的 HBM 密度是 NVIDIA H100 的 2.4 倍,HBM 頻寬是 H100 的 1.6 倍外。MI300X 擁有 1530 億個電晶體,具有 12 個 5nm 小晶片,並高達 192GB HBM3 記憶體。

相較之下, H200在記憶體部分,仍與 AMD 的 GPU 有一段不小落差,不過, NVIDIA 也利用自家獨門技術 NVLink 與 NVSwitch,提高運算速度,在彌補記憶體容量不足之虞,更加強運算效力。

根據 NVIDIA官網說明, NVLink 是一項 GPU 至 GPU 的直接互連技術,可在伺服器內擴充多 GPU 的輸入/輸出 。再與 NVSwitch 整合,連接多個 NVLink,可在單一節點與多節點間以 NVLink 全速提供全方位 GPU 通訊。

NVSwitch 可讓 NVLink 連線跨節點延伸,並建立流暢且高頻寬的多節點 GPU 叢集,有效將 GPU 擴充至資料中心適用大小。 NVIDIA 進一步說明指出,在伺服器外新增第二層 NVSwitch 後,NVLink 網路便可連接高達 256 個 GPU,並以每秒 57.6 TB (TB/秒) 的驚人速度提供全頻寬 。

(資料來源:記者鐘惠玲、李孟珊)

延伸閱讀

VIP》有 Nvidia H200 加速 美科技股將再掀 AI 狂潮

Nvidia 升級 AI 處理器推 H200 強化領先 AMD 和英特爾優勢

輝達推新AI晶片將掀搶購潮 明年Q2出貨 華碩、緯創等添動能

享受更高質量的財經內容 點我加入經濟日報好友

查看原始文章

更多理財相關文章

01

國外網購注意!明年3月實施「預先確認委任」新制 不點APP無法通關

CTWANT
02

和泰汽車明暫停交易 證交所:重大訊息待公布

太報
03

華納兄弟董事會拒絕派拉蒙收購案 稱Netflix合併案較優

路透社
04

60歲夫妻花500萬到山裡蓋別墅,才3年因「這件事」變悲劇!老後移居先做5件事

幸福熟齡 X 今周刊
05

砂石大王轉型資源循環,開發低碳排再生建材!立順興化爐碴成綠金,賣進台積電中科廠

今周刊
06

房價愈打愈高?七都10大漲幅行政區出爐 「這區最扯」年漲56.5%

CTWANT
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...