請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

股價暴跌下 Nvidia 公開讚揚 DeepSeek R1

流動日報

更新於 02月04日11:07 • 發布於 01月28日00:15 • NewMobileLife

Nvidia 在週一的一份聲明中,對中國初創公司DeepSeek所推出的 R1 型號給予高度評價,稱其為「卓越的人工智能進步」,即使這項突破導致 Nvidia 股價單日下跌 17%。Nvidia 發言人對《CNBC》表示:「DeepSeek 的工作展現了如何使用測試時間擴展(Test Time Scaling)技術,並利用完全符合出口管制規範的廣泛可用型號與計算資源來創建新型號。」

低成本突破

DeepSeek 上週發佈的 R1 型號是一種開源推理型號,自稱以不到 600 萬美元的訓練成本超越 OpenAI 等美國公司的最佳型號,遠低於矽谷企業投入的數十億美元。Nvidia 表示,DeepSeek 的突破或將增加對其高效能圖形處理單元(GPU)的需求。

Nvidia 強調:「推理需要大量 NVIDIA GPUs 與高效能網絡支持。我們現在有三條擴展法則:預訓練、後訓練,以及新的測試時間擴展。」此外,Nvidia 還明確指出,DeepSeek 所使用的 GPUs 完全符合出口規範,反駁了 Scale AI 執行長 Alexandr Wang 的質疑。

重構產業投資

DeepSeek 的突破引發外界對美國科技巨頭資本投入效率的疑問。目前,Microsoft 和 Meta 等公司正計劃在 2025 年分別投資 800 億美元與 600 至 650 億美元於人工智能基礎設施,但分析師擔憂,這些基於 Nvidia 晶片的投入是否能產生應有回報。

BofA Securities 分析師 Justin Post 在週一的一份報告中指出:「如果型號訓練成本顯著降低,廣告、旅遊與其他使用雲端人工智能服務的應用公司將短期內獲益,而長期來看,超大規模雲端運算服務的相關收入與成本可能下滑。」

AI 擴展法則的新方向

自 2020 年 OpenAI 提出的「擴展法則」以來,大量計算與數據投入成為 AI 發展的主要驅動力。然而,自去年 11 月起,Nvidia 執行長黃仁勳與 OpenAI 執行長 Sam Altman 等人開始將焦點轉向「測試時間擴展」。這項新概念主張,經完整訓練的 AI 型號在進行預測或生成內容時,若能在使用額外運算資源進行「推理」時花費更多時間,其結果將更為準確。

NewMobileLife 網站:https://www.newmobilelife.com
Facebook:https://www.facebook.com/jetsoiphone

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0