請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

輝達推「最強大」H200晶片,會一舉打趴超微、微軟?

遠見雜誌

更新於 2023年11月29日02:41 • 發布於 2023年11月20日07:49 • 實習記者傅珮琳

晶片業巨頭輝達(Nvidia)日前宣布,將推出全新改版升級的「H200」晶片,據說效能強大,被譽為「最強大AI晶片」!究竟,輝達能否憑藉H200晶片,一舉打敗超微(AMD)、微軟等競爭對手?

當今科技產業最炙手可熱的處理器,非輝達「H100」晶片莫屬,各家欲瓜分生成式AI這塊餡餅的企業,不惜砸重金購入,卻始終因供應趕不上需求而「一片難求」。如今,輝達以H100晶片原型為基礎,推出效能更勝一籌的下一代H200晶片,引發業界高度關注,消息一出,輝達股價即刻上漲1.4%。

美國財經雜誌《巴倫週刊》(Barron's)報導,H200晶片預計將於2024年第二季度正式上架,率先將新晶片運用到自家雲端服務的公司,包括亞馬遜、微軟,以及Google等。

執掌輝達超大規模和高效能運算業務的副總裁巴克(Ian Buck)表示:「有了輝達H200晶片,業界最頂尖的端對端AI超級電腦,運轉速度又變得更快,足以解決全球正面臨的幾項最艱鉅挑戰。」

H200晶片預計將於2024年第二季度正式上架,率先將新晶片運用到自家雲端服務的公司,包括亞馬遜、微軟,以及Google等。取自Nvidia Newsroom
H200晶片預計將於2024年第二季度正式上架,率先將新晶片運用到自家雲端服務的公司,包括亞馬遜、微軟,以及Google等。取自Nvidia Newsroom

H200晶片預計將於2024年第二季度正式上架,率先將新晶片運用到自家雲端服務的公司,包括亞馬遜、微軟,以及Google等。取自Nvidia Newsroom

強大記憶體是H200致勝關鍵

H200晶片沿用輝達現有「Hopper」架構,在硬體設計上,與H100晶片並無太大差異。外媒CNBC指出,「H200可與H100相容,現正使用H100晶片訓練大型語言模型的AI公司,並不需要更換伺服器系統或軟體,就能使用改版的晶片」,兩代晶片基本上可做到「無縫接軌」。

既然如此,那H200到底以什麼取勝?答案就在於它強大的記憶體。

生成式AI的基礎為大型語言模型(large language model, LLM),而大型語言模型,是一種可以被訓練的深度學習演算法,透過分析、處理大量資訊,來學習如何根據使用者的問題,產出合理的答案。

訓練過程中,使用的晶片記憶體容量愈大,大型語言模型就能一次處理更多資訊,且演算速度也會更快。如此一來,ChatGPT等生成式AI,也能更迅速產出文字、圖像,而ChatGPT開發商OpenAI使用的,正是輝達H100晶片。

ChatGPT開發商OpenAI使用的,正是輝達H100晶片。取自Unsplash
ChatGPT開發商OpenAI使用的,正是輝達H100晶片。取自Unsplash

ChatGPT開發商OpenAI使用的,正是輝達H100晶片。取自Unsplash

H200晶片內建「HBM3e」次世代記憶體,容量達141GB,比H100晶片內建的80GB容量高出不少。據CNBC報導,輝達以Meta公司的「Llama 2」大型語言模型進行測試時,發現相較於H100晶片系統,H200晶片系統的產出速度近乎翻倍,處理大量資訊的能力相當驚人。

財經新聞網《市場觀察》(MarketWatch)報導強調,「對高效能運算作業來說,記憶體技術往往和處理器硬體設備一樣重要。未來,全新AI模型及高效能運算負載量,將進一步考驗記憶體的容量。」

輝達不只賣晶片,還賣「生態系」

輝達宣布推出改版晶片的時間點相當微妙,畢竟,最主要的競爭對手之一超微,早前已預告將在今年第四季度發行專為AI、高效能運算工作,而設計的MI300晶片系列。

《市場觀察》評論指出,「輝達已是業界領頭羊,升級記憶體看似流於形式,但眼看英特爾(Intel)繼續推動繪圖處理器及AI加速器的發展,而超微也將發行MI300系列AI晶片,輝達因此必須不斷主動出擊。」由此可見,輝達選擇在此時推出H200晶片,一部分原因,可能就是要與超微一較高下。

除了超微之外,輝達的合作伙伴微軟如今也加入戰局,於日前宣布,將推出公司內部自主研發的資料中心AI晶片,預計2024年開始投入運作,屆時將應用在搜尋引擎「Bing」,以及「Microsoft 365」、「Azure OpenAI」服務項目當中。英國《金融時報》(Financial Times)指出,微軟這一策略,除了要增加晶片來源多元性、減少對單一晶片供應商的依賴,另一目的,則是要將公司的「硬體和軟體設施緊緊捆綁在一起,以提升產品效能及效率。」

微軟如今也加入戰局,於日前宣布,將推出公司內部自主研發的資料中心AI晶片,預計2024年開始投入運作。取自微軟官網
微軟如今也加入戰局,於日前宣布,將推出公司內部自主研發的資料中心AI晶片,預計2024年開始投入運作。取自微軟官網

微軟如今也加入戰局,於日前宣布,將推出公司內部自主研發的資料中心AI晶片,預計2024年開始投入運作。取自微軟官網

事實上,微軟也並非首個同時使用輝達晶片,以及自家晶片的公司,亞馬遜及Google等雲端科技領域巨頭早已這麼做。合作對象紛紛為自家產品量身定做晶片,輝達龍頭老大的寶座,是否會因此不保?

對此,《市場觀察》評論重申,輝達最大的優勢,在於「不只能製造晶片,還擁有打造完整平台及生態系的能力。」生成式AI開發商不僅會向輝達購買晶片,同時,還會使用輝達研發的軟體來寫程式、開發新產品等,從而確保市面上最新的AI產品,都是「根據輝達晶片的規格去進行優化的」,進一步鞏固輝達的絕對領導地位。因此,短期內,其他競爭對手大概仍無法與輝達平起平坐。

更多精采報導,歡迎加入《遠見》 Line官方帳號!

延伸閱讀:

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0

留言 0

沒有留言。