請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

輝達NVDA上半年漲不停,未來小心這2大威脅(上)

CMoney

發布於 2023年07月19日10:09 • 游季婕
輝達NVDA上半年漲不停,未來小心這2大威脅(上)

本篇您將了解2件事:

1.市場看好輝達的理由是什麼?

2.這個理由足以支撐輝達長期上漲嗎?

上半年的AI競賽中,每家公司最想證明的就是能利用大型語言模型(LLM)所建構的生成式 AI,帶給公司變現以及成長的機會,儘管這些應用未來會如何發展是個未知數,但無疑的是,AI的發展都需要有一定的算力和完整生態系的支撐,在這之中輝達(美股代號:NVDA)技術的領先者,這也使其股票為上半年 S&P500中的最大贏家。

本文並不會一昧看多輝達未來的發展,而是想檢視目前的看多論述是否為一個長久、有力,且足以支撐輝達股價不斷上漲的動能。

市場上看多輝達主要是基於 LLM模型所需的參數量會越來越大,也就是模型越來越大,同時代表需要更多算力來訓練模型,但參數量真的是需要無限擴張的嗎?另一個看多論述是輝達擁有非常完善的生態系,這主要受惠於早年開發的 CUDA平台,但這護城河真的那麼強大嗎?

AI模型並非越大越好OpenAI表示逐漸轉往多模型並提升效能

輝達第一個看多論述先從AI模型的建構說起,在建構過程中最核心的步驟是訓練、微調、推論,其中最需要算力的是訓練,這也是目前最受市場關注的部分。在訓練的過程中,又有 3個因素能決定模型的表現,分別為訓練數據量、模型訓練的時間、模型參數量,在資源無窮的情況下,這3個因素越多越好,但現實來看,數據量、時間、算力都是有限的。

根據 OpenAI的研究發現,若以數據量和模型參數來說,不能單獨增加某一個變數,而是要先增加模型參數量後,再來增加訓練數據量, Google的 AI研究機構 DeepMind也得到差不多的結論。

Google和 OpenAI的研究都顯示訓練數據量的重要性,而目前市場的看法是聚焦於模型參數越多越好、模型越大越好(需要更多算力),隱含出大多數的人並沒有意識到模型大小的成長將來到一個趨緩期。 OpenAI執行長 Sam Altman也曾公開表示過,大家太過關注參數量,而他們的工作是提升模型的效能,把模型縮小並多個並用,反而是較好的做法。

這也引出另一個 LLM模型發展的方向,模型效能的提升也意味著未來微調和推論的重要程度會逐漸增加,將與訓練並行或甚至超越,這對於輝達的威脅會更大,因為目前輝達完善的生態系,主要是在訓練上有明顯優勢,若以上轉變持續下去,加上超微或其他家廠商的 GPU有較好的性價比,那麼輝達的市占率恐逐漸流失。

下篇重點:第二個看多論述是輝達完整且強大的軟、硬體生態系,真的有我們想像的那麼強大?

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0

留言 0

沒有留言。