AI自我優化的時代來了!Anthropic深度對談DeepMind:初階白領缺額雪崩在即,職場新鮮人怎麼辦?
在 2026 年世界經濟論壇(WEF)的一場重量級對談中,全球兩大人工智慧先驅再次聚首,一方是引領 Anthropic 的執行長 Dario Amodei,另一方則是掌舵 Google DeepMind 的執行長 Demis Hassabis。
「這場對話就像是看到『披頭四(The Beatles)』與『滾石樂團(The Rolling Stones)』同台演出。在 AI 產業的賽道上,這兩位人物的每一個預測與決策,都將形塑人類的未來。」 作為論壇主持人的《經濟學人》總編 Zanny Minton Beddoes 如此說道。
這場「頂尖樂團」的再次合體,揭示了實現AGI願景的時間表、AI巨頭如何在研發上自我加速,以及當前的產能瓶頸與風險治理。
其中令人擔憂的是,Dario Amodei 指出,當模型能「寫程式、做AI研究,還能帶動下一代模型」時,初階白領是最會先被波及的一群人。從「把事做完」的流程型工作開始,AI做得又快又便宜,人手自然縮編。他的估計更直接:「6–12個月內,模型就能代辦多數軟體工程師的端到端工作。」
究竟AGI的來到,對人類是福是禍?《數位時代》以下將盤點兩位CEO在論壇中提及的重要觀點。
AGI 時間表:激進預期 vs. 謹慎樂觀
對於 AGI(通用人工智慧)的定義,Dario Amodei 提出了一個極具指標性的基準:一個在多個領域皆能達到「諾貝爾獎得主級別(Nobel Laureate Level)」的系統。兩位領袖對於達成此目標的邏輯與時程有著顯著的對比。
Anthropic 觀點
首先從Dario Amodei (Anthropic) 的觀點來看,Amodei 維持他去年提出的較為激進的時間表,認為到了 2026 或 2027 年,AI 模型將能在多個領域達到「諾貝爾獎得主」的人類水準。
他認為核心在於 AI 能夠進行編碼與 AI 研究,進而創造出一個「自我改進迴圈」(self-improvement loop)。他預測在未來 6 到 12 個月內,模型可能就能完成軟體工程師(SWEs)絕大部分的端到端(end-to-end)工作。
雖然晶片製造與硬體供應可能會拖慢進度,但他很難想像這會拖延超過幾年。他認為隨著編碼與研究能力的指數級提升,進展速度將超乎預期。
儘管他預測速度很快,但他坦言更希望 Demis 的較長遠時間表(5-10年)是正確的,因為這能給人類更多時間應對。然而,礙於地緣政治與競爭對手(如中國)的壓力,他認為放慢腳步並不可行。
Google DeepMind 觀點
Demis Hassabis 的觀點則相對謹慎。他維持去年的看法,認為在2030年之前**,有 50% 的機率會出現具備人類所有認知能力的系統,。
他指出,雖然數學和編碼等領域進展迅速(因為結果易於驗證),但自然科學領域需要實驗驗證,且目前 AI 仍缺乏「提出問題」或「提出假設」的高層次科學創造力。
針對Dario Amodei 提到的「自我改進迴圈」,他對於 AI 能否脫離人類自我改進持保留態度。雖然在編碼與數學領域可行,但在涉及物理世界、機器人技術等「混亂」(messiness)且難以快速驗證的領域,這一過程將受到限制。
而如果自我改進(self-improvement)無法獨立完成任務,那麼「世界模型」(world models)和「持續學習」(continual learning)將是必須突破的關鍵技術。
與談人 Dario Amodei Demis Hassabis 達成年份 2026 - 2027 年 (極度激進) 2030 年底前 (約 50% 信心) 核心因素 強調強大的資金將轉化為算力與「自我改進迴圈」,讓 AI 改進 AI。 強調 Google DeepMind 的研究底蘊,可幫助 Gemini 系列將研究成果快速轉化為產品。 阻礙因素 晶片供應鏈的限制、不可縮短的電力基礎建設時間。 AI 難以提出「新問題」或假設;自然科學需要漫長的物理實驗驗證。
值得注意的是,兩位執行長都同意,接下來這一年最值得觀察的指標是「AI 系統構建 AI 系統」(AI systems building AI systems)的進展。這將是決定 AGI 是在短短幾年內到來,還是需要更長時間的關鍵因素。
理解了技術開發的時程與其背後的經濟動能後,我們必須關注這股技術洪流將如何衝擊人類最關心的領域:就業市場與人才培育。
就業市場的劇變:初階白領要掰了?
隨著 AI 系統能力的指數級增長,勞動力市場正經歷一場前所未有的轉型。 Amodei 指出,在短短 1 到 5 年內,高達一半的初級白領職位(如行政、初級代碼編寫)就可能消失。
他表示,Anthropic 內部的軟體工程師已不再從頭寫代碼,而是轉向「編輯代碼」。這意味著勞動力市場正從「執行力導向」轉向「判斷力導向」,因此他預見未來在初階(junior)甚至中階(intermediate)的工作上,企業需要的將是「更少的人,而不是更多的人」。
Amodei 指出,雖然勞動市場具有適應性(如過去從農業轉型至工業),但他擔心這次的技術指數級成長速度太快(可能在 1 到 5 年內),可能會壓倒社會與市場的適應能力。
針對Amodei相對悲觀的說法,Hassabis 補充說明,「如果有機會對大學生演講,他會告訴他們必須讓自己對這些 AI 工具達到『難以置信的精通程度』(unbelievably proficient),來實現某種『跨越式發展(Leapfrog)』,並在你的專業領域中脫穎而出。
「事實上,你可能比我們這些研究人員更擅長使用這些工具。因為我們把所有的時間都花在了開發下一代工具上,我們其實沒有足夠的時間去真正探索當前、甚至未來幾代工具中存在的『能力溢出(Feature Overhang)』。」Hassabis這樣說。
然而,要達到這個理想狀態,必須先處理目前地緣政治中的現實威脅,這是一場關於全球安全與技術主權的博弈。
地緣政治與全球競爭:技術封鎖 vs. 國際合作
在地緣政治的棋局中,兩位專家對於如何處理與威權政府(如中國)的競爭有著截然不同的戰略思維。Dario 的防禦觀點是拒絕向競爭對手出售「核武」。
Amodei 強烈反對將高效能晶片賣給地緣政治對手(中國)。他使用了一個震撼的類比:「為了波音公司的利潤而向朝鮮出售核武器,這毫無邏輯。」 他認為,晶片管制是目前少數有效的手段,能為民主國家爭取時間,確保 AI 發展符合安全規範,而非陷入無止盡的軍備競賽。
而Hassabis的角度則偏向協作,他建議建立類似「歐洲核子研究組織(CERN)」的跨國協調機制,設定 AI 部署的「最低安全標準」。進一步來說,鑑於技術是跨國界的,他認為單方面的封鎖難以長久,最終仍需全球性的技術共識。
Hassabis指出,如果全球頂尖人才因為惡性競爭而分散(fragmented),各自為政地進行軍備競賽,將難以確保系統的技術安全性。他相信如果能集結最優秀的頭腦共同合作,技術風險是可控的(tractable)。
為了應對社會對 AI 風險的恐懼與潛在的反撲,Hassabis 也認為產業界有責任展示 AI 對人類「明確的益處」。他舉例 DeepMind 的 AlphaFold 在解決疾病和科學難題上的貢獻,認為產業界應將更多比重放在這類能造福全人類的應用上,而不僅僅是追求商業模型,。
終局思辨:AGI如人類的「火」之考驗
對談的終點指向了宇宙尺度的哲學:費米悖論(Fermi Paradox)。亦即 AGI 是否是文明演化中那個毀滅性的「大過濾器(Great Filter)」?
與傳統的末日論不同,對此 Hassabis 給出了一個深具洞察力的樂觀判斷:他認為人類極大可能已經跨越了那個大過濾器(他推測過濾點在於多細胞生物的演化難度)。因此,AGI 並非必然的死局,而是人類第一次真正掌握「火」的考驗。
總之,未來一年全球科技界最重要的「觀察指標」只有一個:「AI 構建 AI」的迴圈進度。
延伸閱讀:「像把核武賣給北韓!」Anthropic執行長警告AI晶片輸中風險:恐催化軍事與情報用途
資料來源:世界經濟論壇
本文初稿為AI編撰,整理.編輯/ 李先泰
延伸閱讀
Netflix、Spotify發票如何自動對獎?2方法設定「跨境電商載具歸戶」:發票中獎不再漏接!
ChatGPT有哪些隱藏版功能?從對話框「+」到選單介面,教你打造專屬AI助理
「加入《數位時代》LINE好友,科技新聞不漏接」