請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

輝達為什麼要買Groq?工程師飯碗真的不保了?台大教授剖析2026年AI競賽兩大主軸

數位時代

更新於 01月08日07:17 • 發布於 01月07日20:00 • 陳祈安

2025 年是 AI 產業從「技術狂熱」走向「商業理性」的轉捩點。在這一年,我們見證了 DeepSeek 帶來的成本衝擊、推理模型(Reasoning Model)的崛起,以及企業端對 ROI(投資報酬率)的極度渴求。當燒錢追夢的時代遠去,決定企業生死的不再只是模型參數量,而是「TCO(整體擁有成本)」的優化能力。

以下 Q 為《數位時代》總編輯王志仁提問,A 為台大資工系教授徐宏民的回答,徐教授將以學術研究與產業投資的雙棲視角,解析 AI 如何從生產力工具進化為改變企業結構的系統性力量。

台大資工系教授徐宏民

Q1:回顧 2025 年,AI 技術發展有哪些關鍵的收斂點或方向性的轉變?

A:我建議從「橫向時間軸」與「縱向供應鏈」兩個向度來看這件事,這能幫助我們更清晰地看見 AI 究竟發生了什麼。

首先是橫向的時間軸。 這一波 AI 的起源可以回溯到 2012 年,當時深度學習在影像辨識取得突破(如人臉辨識、影像監控);2017 年 Transformer 架構出現,這原本是用於文字、搜尋、翻譯,但後來演化成 2020 年的 GPT-3;到了 2022 年底 ChatGPT 誕生,讓全球見識到 AI 的「泛化能力」——同一個模型能處理多樣化的工作。而到了 2024 至 2025 年,最重要的技術進展是「推理模型」 的成熟,AI 開始能處理更複雜的邏輯思考。

其次是縱向的供應鏈結構。 AI 並非單獨的模型,它是一個龐大的生態系。從底層的晶圓代工(Foundry)、IC 設計到硬體伺服器(包含散熱、PCB、交換機等),再往上到 CSP(雲端服務商,如 Google, AWS, Azure),接著才是大語言模型以及基於模型開發的新創應用。

今年初 DeepSeek 的崛起是一個經典案例,它用更低成本的方式達到強大的模型能力,這對台灣是非常有利的,因為當模型的競爭變快,對硬體(Server/散熱/通訊)的需求就會更高。所以 2025 年的一個關鍵收斂是:大家確認了大模型的能力,並開始往生態系的上下游尋找最優解

Q2:2025 下半年,大家從 Benchmark(基準測試)數據,轉而關注營運面,背後原因為何?NVIDIA 又為何砸下 200 億美元收購 Groq?

A:2025 年最大的轉變是:大家不再只談「能力」,而開始談 P&L(損益表)與 TCO。當 Transformer 技術架構在未來三到五年確立後,產業必然會走向極致的「成本最佳化」。

企業現在考慮的不是模型多聰明,而是「我用不用得起」。 這催生了「電力戰爭(Energy War)」 的元年。現在大廠聊的不再是「要買幾片晶片」,而是「我有幾個 MW(百萬瓦)甚至 GW(十億瓦)的電力」。電力的限制已經取代晶片,成為資料中心擴張的真正瓶頸。以 Google 為例,他們在 2025 年 8 月發表,透過軟硬體垂直整合與自研晶片,在一年內將單一 Token 的用電成本降低了 33 倍。

這種趨勢直接引發了雲端服務商(CSP)紛紛自研 TPU 或 ASIC 晶片,以擺脫對高價 GPU 的依賴。而 NVIDIA 以 200 億美金併購 Groq,正是對此趨勢的強力回應。Groq 以 LPU(語言處理單元)聞名,專攻推理端(Inference)的極致效率。當市場開始質疑 GPU 在執行推理任務時不夠省電、不夠有效率時,NVIDIA 必須做出佈局。這就像 2019 年他們收購 Mellanox 解決通訊瓶頸一樣,收購 Groq 是為了在「推理效率」這塊陣地插旗,應對來自 Google TPU 或其他 ASIC 晶片的威脅,確保自己在營運成本戰中依然立於不敗之地。

LPU晶片是什麼?
LPU 是一種專為 AI 推論任務設計的特殊應用集成電路(ASIC)。其核心目標在於解決大型語言模型(LLM)在生成文字時的延遲與吞吐量瓶頸,標榜能比傳統 GPU 提供更快的反應速度與更高的效能。

Q3:在企業應用端,有哪些領域已經真正將 AI 轉化為實際的生產力?

A:寫程式(Coding)是目前獲利最清晰的領域。目前全球有一半的 Token 是被用在寫 Code。以矽谷新創 Cursor 為例,他們在 2024 年 12 月只有 18 個工程師,年營收 5,000 萬美金;至 2025 年營收已經衝破 10 億美金,增長速度極其驚人,卻也證明了市場的龐大需求。

甚至連原本對資料最敏感、最保守的 IC 設計公司,現在也在大規模使用 AI 工具來加速晶片設計。雖然他們對資料安全有疑慮,但會透過 Hybrid 模式(混合模式),將部分運算放在 Local Server 處理,或使用大型 EDA(電子設計自動化)工具商提供的 AI 服務。台灣與矽谷的 IC 設計大廠,今年都大幅擴張 AI 團隊並投入 GPU Server,進行設計流程的最佳化。

Q4:當 AI 可接手寫 Code 的工作,是否象徵工程師將被取代?

A:我認為是「職能重組」,未來的工程師不再只是「寫 Code 的人」,而更像是 FDE(Forward Deployment Engineering,前線部署工程師),這同時也是現在矽谷最缺的職位。因競爭週期極快,企業需要的是進來就能馬上解決問題的人。

當 AI 可負責處理「定義明確」的重複性工作,這類初階助理級的任務不再需要人力手工撰寫;而工程師的角色則趨向:去前線理解客戶需求,並在擁有靈感後去觸發(trigger)、將商業邏輯「翻譯」給 AI。

我看到許多資深開發者會同時開啟好幾個 AI 引擎交叉比對、協助除錯。研究顯示,這種人機協作模式能讓開發速度提升 1.5 倍到 3 倍。這就是為什麼企業願意支付高額成本投資 AI 工具,因為當研發周期大幅縮短,其 ROI 是極其可觀的。

縱使初階工作會消失,但具備核心領域知識與問題定義能力的人,價值及生產力反而會倍增。這不只是在軟體業,包含 HR 的招募流程、財務的預測報告,AI 都在將繁瑣的流程自動化。

Q5:展望 2026 年,預期 AI 將如何從「工具」進化為「系統」的一部分?有哪些關鍵趨勢?

A: 2026 年的關鍵字將是「Chat to Action」。AI 不再只是「給建議」,而是轉向執行「動作」。在企業內部,這會體現為 Agent(代理)。例如 HR Agent 自動處理法規諮詢與健檢安排,或 Finance Agent 進行財報預測與下單決策,甚至實體機器人的動作執行。

隨著 AI Token 的成本像當年 Internet 封包(Packet)一樣指數型下降,我們會看到兩個主軸:

1. 混合雲與邊緣運算(Edge AI)的崛起: 企業內部的高價值、高敏感性資料(如財務、薪資)不能上雲(Internet)。而 2025 年的科學驗證發現,參數在百億到千億之間的小模型已具備足夠的推理能力,不需要兆級的大模型就能處理特定任務。這意味著 2026 年會看到更多搭載於企業內網、個人手機或醫療設備上的「系統級」大腦,實現高隱私、低成本的智慧化。

2. 責任歸屬與治理: 當 AI 開始做決策,誰來負法律責任?因此會催生出更多關於資料治理、安全與可靠性的解決方案。

總結來說,2026 年 AI 將不再只是一個對話框,而是整合在服務場域中的「解決方案」。我們正處於一個長週期的起點,重點不在於擔心被取代,而在於如何利用便宜的 Token,在特定產業的垂直領域中創造出不可替代的創意與價值。

完整收聽Podcast|EP267. AI 在2025帶來的驚喜和失望有哪些?年末輝達收購Groq的用意是什麼? ft. 台大資工系教授徐宏民

延伸閱讀:Google發布10組Gemini提示詞!教你將目標拆解成每天、每週可執行計畫,中英文指令一次收

延伸閱讀

Gemini「行銷領域」提示詞快收藏!品牌策略、行銷企劃、市場調查⋯25種提示詞一次看
實測|AI繪圖常常走鐘?解密「視覺筆記」生成3步驟:提示詞怎麼下?一套Prompt穩定產出
解密AI兆元賽道上的隱形冠軍:「上下文圖譜」是什麼?真正的金礦不是AI Agent?
「加入《數位時代》LINE好友,科技新聞不漏接」

查看原始文章

更多理財相關文章

01

深入3千米山林 台電冒死守護「新東西線」

NOWNEWS今日新聞
02

川普威脅對加拿大商品課徵100%關稅!加拿大回應

anue鉅亨網
03

紐西蘭要小心?中國1水果殺進越南 價格跳水創新低

自由電子報
04

信昌化工爆大裁員!勞工局證實:產線已停工

NOWNEWS今日新聞
05

市值有望超越蘋果 專家點名4檔潛力股表現亮眼

CTWANT
06

11-12月統一發票開獎!千萬獎「97023797」 中獎號碼一次看

太報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...