LLM 神話鬆動?企業 AI 策略從「神級模型」轉換成「專家艦隊」
長期以來,AI 模型的實力幾乎等同於其參數規模,但對企業來說,仰賴單一超大型語言模型(LLM)所帶來的控制權不足、成本難以預測與雲端依賴等問題,正在讓「大即是好」的敘事開始鬆動。近來,可運行於個人電腦或手機上的小型語言模型(SLM)成為矽谷新寵,科技巨頭紛紛投入開發。
《VentureBeat》報導,Meta 近期推出的 MobileLLM-R1 系列模型,是這股趨勢的代表之一。這組專為數學、程式與科學推理設計的推理模型,最大僅 9.5 億參數,卻在 MATH 基準測試中擊敗阿里巴巴 Qwen3-0.6B 模型,在 LiveCodeBench 測試中也大幅領先,展現出即便在資源受限裝置上,也能提供可靠邏輯推理的潛力。
Google 方面則以 Gemma 3 270M 進軍市場,其內部測試顯示,手機執行 25 次對話僅耗電 1%。NVIDIA 也端出 Nemotron-Nano,允許開發者用「推理開關」與「思考預算」微調速度與準確度。Liquid AI 更嘗試以液態神經網路架構推動本地多模態模型,降低運算成本。
從「神級模型」到「專家艦隊」,AI 採用模式改寫中
這股小模型化趨勢,與企業實務中興起的「混搭模型」策略相呼應。創投公司 a16z 在 2025 年對 100 位 CIO 的一項調查顯示,37% 的受訪企業同時使用 5 個以上模型,高於去年的 29%──這反映出企業的 AI 策略已從單一供應商轉向多模型並存,並針對不同任務進行優化。
《VentureBeat》則形容,企業正從單體式「神級模型」邁向「專家艦隊」,讓不同小模型各自負責重複性任務,類似軟體業從巨石式架構轉向微服務的演進:把龐雜的問題拆解成許多較小、重複性的子任務,每個任務由經過微調的 SLM 負責。這種做法其實更貼近現在 AI 發展正走向的「代理式(agentic)」應用模式,也就是讓任務分散交由多個專精代理各自處理。
NVIDIA 研究人員指出,目前 LLM 雖然仍是主流,但其龐大能力往往超出需求,反而不符合多數代理式應用的實際任務需求。相較之下,用一整組專精模型組成的「專家艦隊」架構,更符合代理的分工運作方式,不但能降低成本、加快處理速度,也能在系統出錯時更容易追蹤問題來源。
大模型仍關鍵,轉向訓練與生成角色
這並不代表大型語言模型將被淘汰。事實上,OpenAI 的 GPT-5 與 Google Gemini 2.5 Deep Think 近期在國際大學生程式設計競賽(ICPC)世界決賽中分別解出 12 題滿分與 10 題,甚至勝過所有參賽的人類隊伍,顯示大型模型在抽象推理與創造性解題上依舊遙遙領先。《VentureBeat》表示,這類能力正是未來蒸餾與訓練 SLM 的基礎。
AI 研究員 Andrej Karpathy 指出,超大型模型可將龐雜資料「重構」為更理想的合成訓練資料,將推理技能壓縮進更小的模型中,形成「大模型生小模型」的共生循環。換言之,企業未來可能傾向用 LLM 建構基礎推理框架,再用一組可控的 SLM 負責執行實務任務,兼顧前沿與效率。
*本文開放合作夥伴轉載,資料來源:《VentureBeat》1、《VentureBeat》2、a16z、《TechOrange》,首圖來源:AI 工具生成