AI 發展只走到一半?聯發科技企業策略與前瞻技術資深處長梁伯嵩用「七層運算架構」拆解算力、能源與應用的真正瓶頸
當 AI 成為所有產業都在談的顯學,許多困境卻開始浮現:大家明明都在談 AI,卻往往在談完全不同的層次。例如,馬斯克高談太空資料中心與 GW(十億瓦)級算力藍圖,另一邊半導體與硬體工程師仍被電力、散熱、晶片等現實問題追著跑,這種上下游各說各話的「雞同鴨講」,正是當前 AI 產業最真實的寫照。
為了替這場混亂對話建立共同語言,聯發科技企業策略與前瞻技術資深處長梁伯嵩在近期舉辦的 Cake 2026 半導體電子科技徵才博覽會中,以「AI 運算架構的演進與趨勢」為講題,提出一套包含第一層實體層(Physical Layer)、第二層連結層(Link Layer)、第三層神經網路層(Neural Network Layer)、第四層情境層(Context Layer)、第五層代理層(Agent Layer)、第六層協調層(Orchestrator Layer)與第七層應用層(Application Layer)的 「AI 七層運算架構(7-Layer Model)」。
透過這套模型,梁伯嵩從最底層的實體晶片與運算基礎,一路拆解到模型、代理與應用服務,試圖將當前看似碎片化、彼此錯位的 AI 討論,重新在同一張產業地圖上對齊。
硬體與算力的極限挑戰:AI 正撞上能源天花板
梁伯嵩從架構最底層的實體層(Physical Layer)切入,分析從 2009 年學界以 FPGA 進行加速運算,到 2012 年 AlexNet 時期正式引入 GPU,再到 2015、2016 年 Google TPU 與後續 NVIDIA 的專用晶片相繼問世,AI 的運算單元正在持續演進。然而,單一晶片的擴張始終受限於光罩曝光極限無法無限放大,這也迫使產業把提升算力的重心,轉向機櫃級擴展以及跨資料中心的分散式連接(Scale-Out),藉此將數十萬顆甚至上百萬顆 GPU 串聯起來,以滿足龐大的算力需求。
但算力擴張的背後,真正拉開差距的關鍵並非運算本身,而是能源成本。當算力規模被迫以堆疊與連接的方式擴張,能耗問題便同步被放大,成為無法迴避的結構性瓶頸,這也直接引爆全球性的電力壓力。梁伯嵩特別以人腦作為對比,指出人類大腦僅需消耗約 25 瓦的能量即可運作,而當前龐大的 GPU 運算叢集雖然在運算能力上已逐漸追上人腦,但在能源效率上,卻仍落後人腦數千至數萬倍。
當前,AI 資料中心的耗電量已動輒以 GW 為單位計算,而 1GW 約等同於一座現代核能發電廠反應爐的發電量,大約能支撐 40 萬到 50 萬顆 GPU 運作。若回顧過去幾十年,全球最快的超級電腦耗電量僅約 20MW(0.02GW),代表現今 AI 資料中心的規模幾乎是傳統超級電腦的 50 倍之多。
梁伯嵩指出,面對地面電力供給不足與變壓設備生產不及的雙重限制,未來的運算架構甚至開始出現更極端的想像,那就是「上太空」。太空環境不僅能提供近乎無限且比地球多五倍的太陽能,太空的極低溫還能作為天然的散熱器,直接解決地面資料中心極度耗水、耗能的冷卻難題。
從單一晶片到整座資料中心:半導體設計思維的全面翻轉
面對算力與能源的雙重極限挑戰,梁伯嵩表示,半導體產業正面臨與過去截然不同的設計邏輯與典範轉移:過去的 IC 設計往往只需要專注於單一晶片本身,打造如通用型 CPU 一般的運算器,但如今的趨勢已轉向發展 DSA(Domain Specific Architecture,特定領域架構),代表晶片設計不再追求泛用,而是必須針對 AI 運算的底層特性,量身打造專屬的特殊架構。
此外,隨著晶圓代工製程一路挺進 3 奈米甚至 2 奈米的更深節點,單靠過往單向的物理製程微縮已經無法滿足需求,晶片設計端(Designer)與製造端必須更加緊密地來回合作,也就是透過 DTCO(Design Technology Co-optimization,設計與技術協同優化),才能在極小的尺寸下突破物理極限,達到更精密的製程水準。
更深遠的影響在於,當系統需要將數十萬、上百萬顆 GPU 完美串聯運作時,設計的視野必須全面躍升至第二層連結層(Link Layer),因為過去的設計單位通常是一顆 IC 或一塊主機板,現在則必須以單一 Rack(機櫃)為基礎,並納入龐大的 Scale-Out 網路連接規劃,未來甚至必須將整座資料中心視為一台巨型的超級電腦來進行統籌與系統設計,這對半導體產業從業人員來說,是前所未有的巨大改變。
從單一大模型到代理集群,AI 正走向分工協作
進入應用軟體與模型層面,梁伯嵩博士指出,在第三層神經網路層(Neural Network Layer)與第四層情境層(Context Layer)的基礎上,單一大語言模型即使訓練完成,仍不足以直接成為可獨立執行任務的實用系統。他以職場作比喻,形容剛完成訓練的 LLM 就像是剛從頂尖大學畢業的高材生,雖然累積大量知識,卻尚未具備在組織中解決實際問題的即戰力。因此,要讓 AI 真正發揮價值,必須透過第五層代理層(Agent Layer),補上長短期記憶機制(Memory)、能自我反思並拆解子目標的規劃能力(Planning)、熟練使用各類工具的能力,以及能與數位或實體世界互動等四項關鍵能力,而這些能力的整合,正是 AI Agent 能夠從模型走向實務應用的核心所在。
在這樣的基礎上,AI 運作模式也將從追求單一全能的大模型,轉向「垂直分工(Vertical Disintegration)」與生態系協作的架構。梁伯嵩指出,這樣的轉變如同創立一家高科技公司,與其尋找一位精通研發、法務、財務與行銷的「超人」,不如由不同專業分工的團隊協作完成任務。
此外,梁伯嵩也點出,未來的 AI 系統將以 Agentic Swarm(AI 代理集群)的形式運作,透過安全與信任機制進行無縫通訊。例如,當使用者規劃一趟海外旅行時,只需對接旅行社的 AI Agent,系統便能在幕後自動串接航空公司、飯店集團與當地導遊的專屬 Agent,形成一個可完成複雜商業交易的 AI 代理經濟網路。
這種以多代理協作為核心的架構,不僅可避免單一系統失效所造成的「單點故障(Single Point of Failure)」,也為企業帶來保護關鍵資產與去中心化的優勢。過去,擁有長期累積獨家資料的企業或媒體,在導入 AI 時往往必須將珍貴資料交由外部通用模型訓練,但在 Agent 架構下,企業得以訓練專注於自有領域的專屬代理人,僅透過介面與外部系統協作即可創造價值。同時,針對 AI 常被質疑的偏見風險,梁伯嵩也提出類似人類社會「合議制」的解法,透過多個不同背景與專長的 AI Agent 共同參與決策,藉由相互制衡來降低單一模型偏誤所帶來的風險。
協調、治理與「AI HR」成為新戰場
然而,隨著 AI Agent 逐步獲得自主行動與跨系統串聯的能力,如何進行資源分配與績效監控,將成為 AI 發展中的關鍵挑戰。梁伯嵩將此定位為第六層協調層(Orchestrator Layer),也使得管理學正式成為 AI 時代的重要學科。梁伯嵩以近期討論度相當高的純 AI 社交論壇為例,指出當 AI 被賦予獨立社群與投票權後,不僅發生 API 金鑰外洩等安全事件,甚至出現 AI 自發組織宗教、進行哲學討論,乃至透過社交工程誘騙人類密碼的失控行為。
這也意味著,未來對 AI 的信任評估、身分驗證與行為治理將具有高度價值,並催生全新的職能角色:「AI 的 HR」。企業將需要專業人才負責 AI Agent 的評估、信用分級、選擇、資源分配與生命週期管理,確保這些數位員工在可控且安全的範圍內運作,對具備管理或教育背景的人才而言,這也可能成為下一波重要的職涯新機會。
梁伯嵩進一步指出,當發展至最頂端的第七層應用層(Application Layer),AI 的下一個重大突破將來自 Embodied AI(具身智慧/實體 AI)。現階段的 AI 雖然在語言與推理上表現亮眼,本質上仍如同「罐中之腦(Brain in a Vat)」,缺乏與真實世界互動的經驗,只能依賴人類提供的資料學習,這也限制了其對某些物理現象的理解。
未來,當 AI 進入機器人與各種邊緣裝置實體系統中,透過感測器與真實環境進行物理互動並建立系統性知識,將能取得更多維度的資訊,進而推動智慧能力的再次躍升。
「目前 AI 的進展我們覺得已經很快,可是我們大概只在一半,還有很多東西要做,」梁伯嵩最後強調,儘管外界普遍感受到 AI 發展的速度驚人,但若依七層架構檢視,產業實際上仍處於發展中段。從晶片互連與能源供給,到多代理系統的協調治理,再到實體世界的深度互動,AI 的未來,將不只是一場算力競賽,而是一場同時重塑能源、管理模式與人機互動的全面產業變革。
(首圖來源:科技報橘)