請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI自我優化的時代來了!Anthropic深度對談DeepMind:初階白領缺額雪崩在即,職場新鮮人怎麼辦?

數位時代

更新於 6小時前 • 發布於 9小時前

在 2026 年世界經濟論壇(WEF)的一場重量級對談中,全球兩大人工智慧先驅再次聚首,一方是引領 Anthropic 的執行長 Dario Amodei,另一方則是掌舵 Google DeepMind 的執行長 Demis Hassabis

「這場對話就像是看到『披頭四(The Beatles)』與『滾石樂團(The Rolling Stones)』同台演出。在 AI 產業的賽道上,這兩位人物的每一個預測與決策,都將形塑人類的未來。」 作為論壇主持人的《經濟學人》總編 Zanny Minton Beddoes 如此說道。

這場「頂尖樂團」的再次合體,揭示了實現AGI願景的時間表、AI巨頭如何在研發上自我加速,以及當前的產能瓶頸與風險治理。

其中令人擔憂的是,Dario Amodei 指出,當模型能「寫程式、做AI研究,還能帶動下一代模型」時,初階白領是最會先被波及的一群人。從「把事做完」的流程型工作開始,AI做得又快又便宜,人手自然縮編。他的估計更直接:「6–12個月內,模型就能代辦多數軟體工程師的端到端工作。」

究竟AGI的來到,對人類是福是禍?《數位時代》以下將盤點兩位CEO在論壇中提及的重要觀點。

AGI 時間表:激進預期 vs. 謹慎樂觀

對於 AGI(通用人工智慧)的定義,Dario Amodei 提出了一個極具指標性的基準:一個在多個領域皆能達到「諾貝爾獎得主級別(Nobel Laureate Level)」的系統。兩位領袖對於達成此目標的邏輯與時程有著顯著的對比。

Anthropic 觀點

首先從Dario Amodei (Anthropic) 的觀點來看,Amodei 維持他去年提出的較為激進的時間表,認為到了 2026 或 2027 年,AI 模型將能在多個領域達到「諾貝爾獎得主」的人類水準。

他認為核心在於 AI 能夠進行編碼與 AI 研究,進而創造出一個「自我改進迴圈」(self-improvement loop)。他預測在未來 6 到 12 個月內,模型可能就能完成軟體工程師(SWEs)絕大部分的端到端(end-to-end)工作。

雖然晶片製造與硬體供應可能會拖慢進度,但他很難想像這會拖延超過幾年。他認為隨著編碼與研究能力的指數級提升,進展速度將超乎預期。

儘管他預測速度很快,但他坦言更希望 Demis 的較長遠時間表(5-10年)是正確的,因為這能給人類更多時間應對。然而,礙於地緣政治與競爭對手(如中國)的壓力,他認為放慢腳步並不可行。

Google DeepMind 觀點

Demis Hassabis 的觀點則相對謹慎。他維持去年的看法,認為在2030年之前**,有 50% 的機率會出現具備人類所有認知能力的系統,。

他指出,雖然數學和編碼等領域進展迅速(因為結果易於驗證),但自然科學領域需要實驗驗證,且目前 AI 仍缺乏「提出問題」或「提出假設」的高層次科學創造力。

針對Dario Amodei 提到的「自我改進迴圈」,他對於 AI 能否脫離人類自我改進持保留態度。雖然在編碼與數學領域可行,但在涉及物理世界、機器人技術等「混亂」(messiness)且難以快速驗證的領域,這一過程將受到限制。

而如果自我改進(self-improvement)無法獨立完成任務,那麼「世界模型」(world models)和「持續學習」(continual learning)將是必須突破的關鍵技術。

與談人 Dario Amodei Demis Hassabis 達成年份 2026 - 2027 年 (極度激進) 2030 年底前 (約 50% 信心) 核心因素 強調強大的資金將轉化為算力與「自我改進迴圈」,讓 AI 改進 AI。 強調 Google DeepMind 的研究底蘊,可幫助 Gemini 系列將研究成果快速轉化為產品。 阻礙因素 晶片供應鏈的限制、不可縮短的電力基礎建設時間。 AI 難以提出「新問題」或假設;自然科學需要漫長的物理實驗驗證。

值得注意的是,兩位執行長都同意,接下來這一年最值得觀察的指標是「AI 系統構建 AI 系統」(AI systems building AI systems)的進展。這將是決定 AGI 是在短短幾年內到來,還是需要更長時間的關鍵因素。

理解了技術開發的時程與其背後的經濟動能後,我們必須關注這股技術洪流將如何衝擊人類最關心的領域:就業市場與人才培育。

就業市場的劇變:初階白領要掰了?

隨著 AI 系統能力的指數級增長,勞動力市場正經歷一場前所未有的轉型。 Amodei 指出,在短短 1 到 5 年內,高達一半的初級白領職位(如行政、初級代碼編寫)就可能消失。

他表示,Anthropic 內部的軟體工程師已不再從頭寫代碼,而是轉向「編輯代碼」。這意味著勞動力市場正從「執行力導向」轉向「判斷力導向」,因此他預見未來在初階(junior)甚至中階(intermediate)的工作上,企業需要的將是「更少的人,而不是更多的人」。

Amodei 指出,雖然勞動市場具有適應性(如過去從農業轉型至工業),但他擔心這次的技術指數級成長速度太快(可能在 1 到 5 年內),可能會壓倒社會與市場的適應能力。

針對Amodei相對悲觀的說法,Hassabis 補充說明,「如果有機會對大學生演講,他會告訴他們必須讓自己對這些 AI 工具達到『難以置信的精通程度』(unbelievably proficient),來實現某種『跨越式發展(Leapfrog)』,並在你的專業領域中脫穎而出。

「事實上,你可能比我們這些研究人員更擅長使用這些工具。因為我們把所有的時間都花在了開發下一代工具上,我們其實沒有足夠的時間去真正探索當前、甚至未來幾代工具中存在的『能力溢出(Feature Overhang)』。」Hassabis這樣說。

然而,要達到這個理想狀態,必須先處理目前地緣政治中的現實威脅,這是一場關於全球安全與技術主權的博弈。

地緣政治與全球競爭:技術封鎖 vs. 國際合作

在地緣政治的棋局中,兩位專家對於如何處理與威權政府(如中國)的競爭有著截然不同的戰略思維。Dario 的防禦觀點是拒絕向競爭對手出售「核武」。

Amodei 強烈反對將高效能晶片賣給地緣政治對手(中國)。他使用了一個震撼的類比:「為了波音公司的利潤而向朝鮮出售核武器,這毫無邏輯。」 他認為,晶片管制是目前少數有效的手段,能為民主國家爭取時間,確保 AI 發展符合安全規範,而非陷入無止盡的軍備競賽。

Hassabis的角度則偏向協作,他建議建立類似「歐洲核子研究組織(CERN)」的跨國協調機制,設定 AI 部署的「最低安全標準」。進一步來說,鑑於技術是跨國界的,他認為單方面的封鎖難以長久,最終仍需全球性的技術共識。

Hassabis指出,如果全球頂尖人才因為惡性競爭而分散(fragmented),各自為政地進行軍備競賽,將難以確保系統的技術安全性。他相信如果能集結最優秀的頭腦共同合作,技術風險是可控的(tractable)。

為了應對社會對 AI 風險的恐懼與潛在的反撲,Hassabis 也認為產業界有責任展示 AI 對人類「明確的益處」。他舉例 DeepMind 的 AlphaFold 在解決疾病和科學難題上的貢獻,認為產業界應將更多比重放在這類能造福全人類的應用上,而不僅僅是追求商業模型,。

終局思辨:AGI如人類的「火」之考驗

對談的終點指向了宇宙尺度的哲學:費米悖論(Fermi Paradox)。亦即 AGI 是否是文明演化中那個毀滅性的「大過濾器(Great Filter)」?

與傳統的末日論不同,對此 Hassabis 給出了一個深具洞察力的樂觀判斷:他認為人類極大可能已經跨越了那個大過濾器(他推測過濾點在於多細胞生物的演化難度)。因此,AGI 並非必然的死局,而是人類第一次真正掌握「火」的考驗。

總之,未來一年全球科技界最重要的「觀察指標」只有一個:「AI 構建 AI」的迴圈進度。

延伸閱讀:「像把核武賣給北韓!」Anthropic執行長警告AI晶片輸中風險:恐催化軍事與情報用途

資料來源:世界經濟論壇

本文初稿為AI編撰,整理.編輯/ 李先泰

延伸閱讀

Netflix、Spotify發票如何自動對獎?2方法設定「跨境電商載具歸戶」:發票中獎不再漏接!
ChatGPT有哪些隱藏版功能?從對話框「+」到選單介面,教你打造專屬AI助理
「加入《數位時代》LINE好友,科技新聞不漏接」

查看原始文章

更多理財相關文章

01

日本公布安全性最高 10 款車榜單!第一名評價逼近滿分

自由電子報
02

黃仁勳隱晦談遭霸凌過往 母親驚人意志力影響深遠

中央通訊社
03

證券大老過世! 證交所前總座朱富春逝世享壽77歲 多家企業重訊公告證實

太報
04

黃仁勳後悔賣輝達股票為父母買奔馳 稱這是世上最貴的車

anue鉅亨網
05

金馬年換新鈔全攻略!2/9起跑「僅5個營業日」 拿到做「1」動作旺整年

三立新聞網
06

176萬人受惠!政院拍板:國民年金調升23.5%至5000元 放寬排富門檻

anue鉅亨網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...