請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

Meta 高效新模型 Llama 4 劍指競爭對手,2 兆參數「巨獸」即將登陸

科技新報

更新於 2025年04月07日15:48 • 發布於 2025年04月07日08:14

Meta 發表新一代多模態模型 Llama 4 系列,並導入 WhatsApp、Messenger、Instagram 及網頁版的 Meta AI 助理。

已有 2 款新模型可從 llama.com 或 Hugging Face 下載,分別是 Llama 4 Scout、Llama 4 Maverick,前者一款可在單一 NVIDIA H100 GPU 運行的小型模型,後者定位則類似於 OpenAI GPT-4o 與 Google Gemini 2.0 Flash。Meta 更表示,目前正在訓練 Llama 4 Behemoth,被 Meta 執行長祖克柏(Mark Zuckerberg)稱為「全球性能最強的基礎模型」。

Llama 4 Scout 擁有 170 億有效參數和 4,000 億總參數,具有多達 1,000 萬詞元(token)上下文長度,在多項基準測試超越 Google 的 Gemma 3、Gemini 2.0 Flash-Lite 及 Mistral 3.1,並且可在單一 NVIDIA H100 GPU 運行。規模較大的 Llama 4 Maverick 性能上則媲美 GPT-4o 和 Gemini 2.0 Flash,且在程式設計與推理任務中,使用的有效參數不到一半,表現與 DeepSeek-V3 相當,可在單一 H100 DGX 主機上運行便於部署。

至於 Llama 4 Behemoth 將擁有 2,880 億有效參數,總參數達 2 兆。雖然這款模型尚未正式推出,但 Meta 表示,它在多項 STEM 基準測試中,將能超越競爭對手如 GPT-4.5、Claude Sonnet 3.7 及 Gemini 2.0 Pro。

Meta 強調 Llama 4 採用 MoE(Mixture of Experts Models,混合專家模型)架構,在訓練和推理方面具有更高的運算效率。Meta 計劃在 4 月 29 日舉行的LlamaCon 開發者大會,進一步探討其 AI 模型和產品的未來計畫。

▲ Meta 副總裁暨 GenAI 負責人 Ahmad Al-Dahle 介紹 Llama 4。

值得一提的是,Meta 標榜 Llama 4 系列為「開源」模型,然而 Llama 長期以來因其授權限制存在爭議。比方說,Llama 4 授權規定顯示,每月活躍用戶超過 7 億的商業實體在使用 Llama 4 之前必須取得 Meta 授權許可。對此開放原始碼倡議組織(Open Source Initiative,OSI)在 2023 年即表示,Llama 不屬於「開源」的範疇。

隨著來自中國的 DeepSeek 在今年初向全球開源推理模型 DeepSeek-R1 震撼業界,整個 AI 產業格局發生了變化,同樣打著「開源」大旗的 Meta 備感威脅,如今終於以 Llama 4 做為回應。

(首圖來源:Meta

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

中東戰火燒進醫院!手套、抽痰管漲8% 大廠發函警告:還會再漲

太報
02

中東戰火不停油價大漲 楊金龍:風暴拖到4月中旬後恐逼全球再掀升息潮

鏡報
03

黃金週崩11%「自1983年來最慘」 關鍵2原因找到了

EBC 東森新聞
04

TVBS裁百人1/餘波蕩漾再傳恐有第3波 TVBS裁員為哪樁

鏡週刊
05

美伊狂戰「黃金慘遭5重夾殺」!單週跌破「43年最慘數字」原因曝光

民視新聞網
06

Yamaha 全新 7 代勁戰日規版亮相!專屬紅色元素構築動感視覺

自由電子報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...