本篇您將了解2件事:
1.市場看好輝達的理由是什麼?
2.這個理由足以支撐輝達長期上漲嗎?
上半年的AI競賽中,每家公司最想證明的就是能利用大型語言模型(LLM)所建構的生成式 AI,帶給公司變現以及成長的機會,儘管這些應用未來會如何發展是個未知數,但無疑的是,AI的發展都需要有一定的算力和完整生態系的支撐,在這之中輝達(美股代號:NVDA)技術的領先者,這也使其股票為上半年 S&P500中的最大贏家。
本文並不會一昧看多輝達未來的發展,而是想檢視目前的看多論述是否為一個長久、有力,且足以支撐輝達股價不斷上漲的動能。
市場上看多輝達主要是基於 LLM模型所需的參數量會越來越大,也就是模型越來越大,同時代表需要更多算力來訓練模型,但參數量真的是需要無限擴張的嗎?另一個看多論述是輝達擁有非常完善的生態系,這主要受惠於早年開發的 CUDA平台,但這護城河真的那麼強大嗎?
AI模型並非越大越好,OpenAI表示逐漸轉往多模型並提升效能
輝達第一個看多論述先從AI模型的建構說起,在建構過程中最核心的步驟是訓練、微調、推論,其中最需要算力的是訓練,這也是目前最受市場關注的部分。在訓練的過程中,又有 3個因素能決定模型的表現,分別為訓練數據量、模型訓練的時間、模型參數量,在資源無窮的情況下,這3個因素越多越好,但現實來看,數據量、時間、算力都是有限的。
根據 OpenAI的研究發現,若以數據量和模型參數來說,不能單獨增加某一個變數,而是要先增加模型參數量後,再來增加訓練數據量, Google的 AI研究機構 DeepMind也得到差不多的結論。
Google和 OpenAI的研究都顯示訓練數據量的重要性,而目前市場的看法是聚焦於模型參數越多越好、模型越大越好(需要更多算力),隱含出大多數的人並沒有意識到模型大小的成長將來到一個趨緩期。 OpenAI執行長 Sam Altman也曾公開表示過,大家太過關注參數量,而他們的工作是提升模型的效能,把模型縮小並多個並用,反而是較好的做法。
這也引出另一個 LLM模型發展的方向,模型效能的提升也意味著未來微調和推論的重要程度會逐漸增加,將與訓練並行或甚至超越,這對於輝達的威脅會更大,因為目前輝達完善的生態系,主要是在訓練上有明顯優勢,若以上轉變持續下去,加上超微或其他家廠商的 GPU有較好的性價比,那麼輝達的市占率恐逐漸流失。
下篇重點:第二個看多論述是輝達完整且強大的軟、硬體生態系,真的有我們想像的那麼強大?
留言 0