請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

Meta 高效新模型 Llama 4 劍指競爭對手,2 兆參數「巨獸」即將登陸

科技新報

更新於 2025年04月07日15:48 • 發布於 2025年04月07日08:14

Meta 發表新一代多模態模型 Llama 4 系列,並導入 WhatsApp、Messenger、Instagram 及網頁版的 Meta AI 助理。

已有 2 款新模型可從 llama.com 或 Hugging Face 下載,分別是 Llama 4 Scout、Llama 4 Maverick,前者一款可在單一 NVIDIA H100 GPU 運行的小型模型,後者定位則類似於 OpenAI GPT-4o 與 Google Gemini 2.0 Flash。Meta 更表示,目前正在訓練 Llama 4 Behemoth,被 Meta 執行長祖克柏(Mark Zuckerberg)稱為「全球性能最強的基礎模型」。

Llama 4 Scout 擁有 170 億有效參數和 4,000 億總參數,具有多達 1,000 萬詞元(token)上下文長度,在多項基準測試超越 Google 的 Gemma 3、Gemini 2.0 Flash-Lite 及 Mistral 3.1,並且可在單一 NVIDIA H100 GPU 運行。規模較大的 Llama 4 Maverick 性能上則媲美 GPT-4o 和 Gemini 2.0 Flash,且在程式設計與推理任務中,使用的有效參數不到一半,表現與 DeepSeek-V3 相當,可在單一 H100 DGX 主機上運行便於部署。

至於 Llama 4 Behemoth 將擁有 2,880 億有效參數,總參數達 2 兆。雖然這款模型尚未正式推出,但 Meta 表示,它在多項 STEM 基準測試中,將能超越競爭對手如 GPT-4.5、Claude Sonnet 3.7 及 Gemini 2.0 Pro。

Meta 強調 Llama 4 採用 MoE(Mixture of Experts Models,混合專家模型)架構,在訓練和推理方面具有更高的運算效率。Meta 計劃在 4 月 29 日舉行的LlamaCon 開發者大會,進一步探討其 AI 模型和產品的未來計畫。

▲ Meta 副總裁暨 GenAI 負責人 Ahmad Al-Dahle 介紹 Llama 4。

值得一提的是,Meta 標榜 Llama 4 系列為「開源」模型,然而 Llama 長期以來因其授權限制存在爭議。比方說,Llama 4 授權規定顯示,每月活躍用戶超過 7 億的商業實體在使用 Llama 4 之前必須取得 Meta 授權許可。對此開放原始碼倡議組織(Open Source Initiative,OSI)在 2023 年即表示,Llama 不屬於「開源」的範疇。

隨著來自中國的 DeepSeek 在今年初向全球開源推理模型 DeepSeek-R1 震撼業界,整個 AI 產業格局發生了變化,同樣打著「開源」大旗的 Meta 備感威脅,如今終於以 Llama 4 做為回應。

(首圖來源:Meta

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

新聞幕後/獨!美超微廖益賢與黃仁勳同框後秒被捕 官宣照成風暴前奏曲

三立新聞網
02

金價跌破4500美元!民眾「逢低搶進」 銀樓現排隊搶金潮

台視
03

年輕人領錢了!符合資格者可領8萬元補助,申請條件、方法一次看

食尚玩家
04

黑色星期一!台積電重挫失守1800元 台股跌逾千點

自由電子報
05

台股跌千點!金管會彭金隆喊「情況複雜」 伊朗衝擊無絕對性

ETtoday新聞雲
06

台股跳水千點「它們」逆勢漲停紅通通 二檔ETF開募

CTWANT
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...