請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

影片|「我們領先一個世代!」輝達回擊市場疑慮背後:GPU跟TPU差在哪?Google真的會動搖AI霸主地位嗎?

數位時代

更新於 2025年11月27日09:24 • 發布於 2025年11月27日09:20

重點一:輝達稱其 GPU 平台「領先一個世代」,可在各種環境執行各類 AI 模型,回應外界對 Google TPU 競爭的疑慮。

重點二:受到臉書母公司 Meta 可能採用 Google TPU 的報導影響,輝達股價當日下跌約 3%,市場關注其在 AI 基礎設施的主導地位。

重點三:Google 表示 TPU 與輝達 GPU 的需求都在加速;最新的 Gemini 3 用 TPU 訓練,但也能在輝達平台上執行,競合關係更為明顯。

輝達最近在 X 上丟出一句話:「我們領先整個業界一個世代,而且是唯一能把所有 AI 模型在各種地方都跑起來的平台。」這段話明顯是回應市場疑慮:Google 的 TPU 聲量升高,是否會動搖輝達在 AI 硬體的霸主地位?

引爆點是:有報導稱 Meta 可能與 Google 合作,在資料中心採用 TPU。結果輝達股價當天回檔約 3%。雖然分析師普遍認為,輝達以 GPU 在 AI 晶片市場仍握有逾九成的市占率,但「TPU 更便宜?交期更穩?雲端資源更好租用?」這類現實考量,讓雲端業者越來越傾向「兩邊都用」。

為了回應外界疑慮,輝達在貼文裡把核心差異講白了:ASIC(如 Google TPU)為特定公司或用途客製,性能不差,但彈性有限;相較之下,輝達的 Blackwell 世代主打「效能、通用性、可替換性」三件事,等於一次解掉「模型要換、場景要搬、部署要跨雲」這些痛點。

據《CNBC》報導,Google 發言人在一份聲明中指出:「我們訂製的 TPU 和輝達 GPU 的需求都在加速增長。我們將一如既往地繼續支持兩者。」舉例而言,輝達執行長 黃仁勳 在先前法說會也提到,Gemini 能在輝達平台上運行,並轉述 DeepMind 執行長 Demis Hassabis 的看法:「AI 的擴展律(scaling laws)仍成立,更大的算力與更大的數據,會帶來更強的模型。」

換句話說,只要 AI 還在往「更大、更複雜」的方向前進,市場對高階加速器的胃口就不會縮小。

延伸閱讀:當輝達還在舞台走秀,Google悄悄亮出底牌了!第七代TPU「Ironwood」如何將AI戰爭升級至下半場?

TPU 跟 GPU 到底差在哪?

事實上,TPU 和 GPU 都是為了加速大量並行計算而設計,常用於神經網路訓練與推論。兩者皆配備高頻寬記憶體(如 HBM),支援低精度運算(如 FP16、bfloat16、INT8)以提升效能與能效,並可透過高速互連組成大型集群來訓練 Transformer 等模型。

但兩者的差異在於「設計取向」不同。

TPU 是為深度學習客製的專用加速器,核心是大規模矩陣乘法(systolic array),主打把「大量乘法+加法」這種固定模式,做得又快、又穩、又省電,就像專門生產同一種零件的高速產線。

GPU 則源自圖形處理,並演進為通用並行處理器,既能跑深度學習也能處理科學計算、視覺與多樣工作負載。也就是說,GPU 不只會跑 AI,也能跑科學計算、影像處理、各式工具與框架;就像多功能工廠,什麼都能接。

因此在計算精度上,GPU 通常支援較高的精度(如 FP32、FP64)。因為畫圖如果算錯,畫面會破圖;科學計算算錯,橋樑會垮掉。TPU 則專門優化低精度計算(如 bfloat16、INT8),因為 AI(神經網路)其實不需要算得那麼準。例如分辨一隻貓,你算出它是貓的機率是 99.12345% 還是 99.1%,其實沒有太大差別。亦即 TPU 犧牲了一點精確程度,換來極致的速度與能效。

在記憶體存取方面,GPU 經常需要到顯示記憶體(VRAM)搬運資料,處理超大型 AI 模型時容易遇到瓶頸;而 TPU 透過大規模矩陣乘法,讓資料在晶片內部流動與復用,可大幅減少記憶體存取次數。

最後用最簡單的話來說:TPU 追求把同一種 AI 算法「做到極致」,而 GPU 則追求在更多場景都「夠快又好用」。

比較項目 GPU (圖形處理器) TPU (張量處理器) 靈活性 通用型:什麼類型的計算都能處理,包含不規則、臨時改動的工作 專門型:特別擅長「大量矩陣/卷積」這種規則、重複的運算 效能瓶頸 常卡在資料搬運(記憶體、跨卡溝通)而不是純算力 也會受資料搬運/互連影響;在大批量、規則計算時效率特別好 計算精度 平常用較省的位數加速(FP16/BF16/FP8),要更準時會用FP32/FP64;也支援INT8/INT4 量化來省算力與成本 主打BF16快速運算,關鍵步驟用FP32 累加確保結果穩定;推論也能用INT8 量化加速 開發體驗 成熟生態(CUDA、PyTorch/TensorFlow),工具多、除錯方便 走XLA 編譯路線(TensorFlow/JAX/PyTorch XLA),動態/不規則程式較難調 最適場景 研究開發、功能多、彈性高;訓練與推論都常用 大型、規則、可大量並行的分散式訓練與雲端批量推論 取得方式 雲端、本地都容易買到,型號選擇多 以雲端為主(Google Cloud TPU/TPU Pod),本地較少

延伸閱讀:Google重回AI霸主!Gemini 3橫掃市場背後:TPU助攻,強大生態網讓對手沒得玩

資料來源:CNBC彭博社

本文初稿為AI編撰,整理.編輯/ 李先泰

延伸閱讀

Google重回AI霸主!Gemini 3橫掃市場背後:TPU助攻,強大生態網讓對手沒得玩
當輝達還在舞台走秀,Google悄悄亮出底牌了!第七代TPU「Ironwood」如何將AI戰爭升級至下半場?
「加入《數位時代》LINE好友,科技新聞不漏接」

查看原始文章

更多理財相關文章

01

預售市場大失血!全台總銷年減1.4 兆 「這一都」4區淪為重災區

太報
02

鴻海去年營收首破8兆元創新高 今年首季不看淡

中央通訊社
03

台股大漲755點攻至三萬點 誰買的? 外資今賣超76億元

太報
04

報酬率最高近9成!本週4檔申購抽中賺近10萬

NOWNEWS今日新聞
05

台股衝破3萬點 阮清華談國安基金動向退場前不賣股

中央通訊社
06

台股站上3萬點!傳言國安基金壓盤不讓漲太高?操盤手說話了

太報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...