Google DeepMind 執行長:AI 的規模化「必須推向極致」
當矽谷內部開始重新審視「擴展定律(scaling laws)」是否還能持續推動 AI 進步時,Google DeepMind 執行長 Demis Hassabis 選擇站在最明確、也最激進的一方。他直言,現有 AI 系統的規模化「必須被推向極限」,即便最終還需要額外突破,擴展仍將是通往 AGI 的關鍵組成。
擴展定律仍是 AGI 的主幹,而非過渡方案
所謂 AI 擴展定律,指的是在模型架構不變的前提下,只要提供更多資料與運算資源,模型的能力就會隨之提升。這一假設,近年支撐了生成式 AI 的爆發,也驅動各大科技公司投入鉅資建設資料中心、採購晶片與爭奪訓練資料。
Hassabis 表示,單靠擴大規模(scaling)很可能就能讓產業邁向通用人工智慧(AGI),但他也認為,仍可能需要一到兩項「等級相當於 Transformer 或 AlphaGo」的突破,才能讓 AI 系統真正跨過門檻。
《Business Insider》指出,單靠擴大規模的問題在於,公開可取得的資料量終究有限,而持續增加算力則意味著必須興建更多資料中心,不僅成本高昂,也對環境造成沉重負擔。
在同一場訪談中,Hassabis 也給出了相對具體的時間預期。他強調,AGI 尚未到來,但距離已不遙遠,依其觀察,可能還需要約 5 到 10 年的時間。
產業分歧:不是所有人都相信「再大就好」
然而,Hassabis 的立場,並非產業共識。《Business Insider》報導,隨著投資金額節節攀升、模型效能提升幅度開始趨緩,部分研究者與投資人質疑,AI 是否正進入「投入遞減」的階段。
Meta 前首席 AI 科學家楊立昆(Yann LeCun)便是擴展派最具代表性的反對聲音之一。他公開指出,多數真正重要、且具有突破性的問題,往往難以單純透過放大模型規模來解決。「你不能假設更多資料、更多算力,就一定意味著更聰明的 AI,」楊立昆在今年稍早於新加坡的一場演講中如此表示。
楊立昆近年逐漸將研究重心轉向「世界模型(World Models)」,主張 AI 應更深入理解物理世界、空間關係與因果結構,而不只是從大量語言資料中學習統計關聯。他認為,這條路徑可能代表 AI 的下一次典範轉移。
從擴展定律能否「撐到最後」,到是否必須引入全新架構與學習方式,這場辯論已逐漸成為 AI 產業的分水嶺。一邊是如 Google DeepMind 般,選擇持續加碼現有體系,試圖逼近理論極限;另一邊則主張,真正的突破可能來自難以規模化、卻更貼近人類理解世界方式的研究方向。
*本文開放合作夥伴轉載,資料來源:《Business Insider》、《Axios》,首圖來源:Google for Developers