請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

LLM 神話鬆動?企業 AI 策略從「神級模型」轉換成「專家艦隊」

TechOrange 科技報橘

更新於 2025年09月19日09:41 • 發布於 2025年09月19日01:41 • 廖紹伶

長期以來,AI 模型的實力幾乎等同於其參數規模,但對企業來說,仰賴單一超大型語言模型(LLM)所帶來的控制權不足、成本難以預測與雲端依賴等問題,正在讓「大即是好」的敘事開始鬆動。近來,可運行於個人電腦或手機上的小型語言模型(SLM)成為矽谷新寵,科技巨頭紛紛投入開發。

《VentureBeat》報導,Meta 近期推出的 MobileLLM-R1 系列模型,是這股趨勢的代表之一。這組專為數學、程式與科學推理設計的推理模型,最大僅 9.5 億參數,卻在 MATH 基準測試中擊敗阿里巴巴 Qwen3-0.6B 模型,在 LiveCodeBench 測試中也大幅領先,展現出即便在資源受限裝置上,也能提供可靠邏輯推理的潛力。

Google 方面則以 Gemma 3 270M 進軍市場,其內部測試顯示,手機執行 25 次對話僅耗電 1%。NVIDIA 也端出 Nemotron-Nano,允許開發者用「推理開關」與「思考預算」微調速度與準確度。Liquid AI 更嘗試以液態神經網路架構推動本地多模態模型,降低運算成本。

從「神級模型」到「專家艦隊」,AI 採用模式改寫中

這股小模型化趨勢,與企業實務中興起的「混搭模型」策略相呼應。創投公司 a16z 在 2025 年對 100 位 CIO 的一項調查顯示,37% 的受訪企業同時使用 5 個以上模型,高於去年的 29%──這反映出企業的 AI 策略已從單一供應商轉向多模型並存,並針對不同任務進行優化。

《VentureBeat》則形容,企業正從單體式「神級模型」邁向「專家艦隊」,讓不同小模型各自負責重複性任務,類似軟體業從巨石式架構轉向微服務的演進:把龐雜的問題拆解成許多較小、重複性的子任務,每個任務由經過微調的 SLM 負責。這種做法其實更貼近現在 AI 發展正走向的「代理式(agentic)」應用模式,也就是讓任務分散交由多個專精代理各自處理。

NVIDIA 研究人員指出,目前 LLM 雖然仍是主流,但其龐大能力往往超出需求,反而不符合多數代理式應用的實際任務需求。相較之下,用一整組專精模型組成的「專家艦隊」架構,更符合代理的分工運作方式,不但能降低成本、加快處理速度,也能在系統出錯時更容易追蹤問題來源。

大模型仍關鍵,轉向訓練與生成角色

這並不代表大型語言模型將被淘汰。事實上,OpenAI 的 GPT-5 與 Google Gemini 2.5 Deep Think 近期在國際大學生程式設計競賽(ICPC)世界決賽中分別解出 12 題滿分與 10 題,甚至勝過所有參賽的人類隊伍,顯示大型模型在抽象推理與創造性解題上依舊遙遙領先。《VentureBeat》表示,這類能力正是未來蒸餾與訓練 SLM 的基礎。

AI 研究員 Andrej Karpathy 指出,超大型模型可將龐雜資料「重構」為更理想的合成訓練資料,將推理技能壓縮進更小的模型中,形成「大模型生小模型」的共生循環。換言之,企業未來可能傾向用 LLM 建構基礎推理框架,再用一組可控的 SLM 負責執行實務任務,兼顧前沿與效率。

*本文開放合作夥伴轉載,資料來源:《VentureBeat》1《VentureBeat》2a16z《TechOrange》,首圖來源:AI 工具生成

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

你也買了嗎?00403A成交量刷紀錄 官方示警!

三立新聞網
02

台中銀涉勾結詐團內控失靈 金管會罰3200萬創銀行業新高

中央通訊社
03

台中銀內控防洗錢出大包! 金管會開出3200萬天價罰單創銀行業紀錄

鏡報
04

00403A掛牌爆300萬張大量! 投資人追捧送錢來 即時溢價狂飆 造市商瘋套利

太報
05

不是醫生、工程師!全台「1行業」最賺錢 平均月薪飆破7萬元

三立新聞網
06

551人瞬間失業!資深員工嘆「以為可以做到退休」普利司通資遣方案曝

三立新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...