WEF》從「物理智慧」到「AI移民」,聊天機器人後的下一波革命
在格陵蘭等地緣政治議題進逼下,2026年的世界經濟論壇(WEF)上,人工智慧不再是首要焦點,但依然滲透到各大對談中,且論述範圍更加拓展到治理、風險,以及對社會的影響。人工智慧的下一階段可能如何演進?為何歷史學者哈拉瑞認為我們需要正視「AI移民」的前景?
人工智慧被認為是將人類社會推入下一輪生產力革命的通用技術,但現前的形式與觸及面向還可說是相當初淺。
一般大眾與Gemini、ChatGPT這類聊天機器人互動的介面仍以文字、語音為主,且錯誤無法杜絕。模型記憶能力有限,甚有誤導、欺瞞使用者的情況出現。顯著應用成果侷限在數位世界,尤其是軟體研發領域,許多企業仍在苦思如何測量AI的投資報酬率。
這與科學家、管理階層以至於一般大眾期望擁有的通用人工智慧夥伴,仍存在著不小的差距。在人類生產的數位數據量限制下,光靠擴展法則(scaling laws)已不足以打造出下一代人工智慧。在世界經濟論壇(WEF)期間進行的對談中,Google DeepMind CEO哈薩比斯(Demis Hassabis)與Anthropic執行長阿莫迪(Dario Amodei)大致同意,以AI研發AI的成效,將是前進通用人工智慧的關鍵指標。
在「智慧的下一階段」(Next Phase of Intelligence)對談上,則邀請到數位前沿科學家,分享對人工智慧未來能力的展望。
班吉歐:人工智慧不以取悅人類為目標
2018年以深度學習研究貢獻獲得圖靈獎(Turing Award)的加拿大電腦科學家班吉歐(Yoshua Bengio),先前曾多次對AI走向及風險表達擔憂,但近期的工作成果似乎讓他樂觀許多。
班吉歐在2025年中成立非營利組織「LawZero」,目標是打造出誠實、可作為安全護欄工具的「科學家AI」(Scientist AI)。在論壇上,他解釋這個名稱背後的核心概念在於以「科學的理想狀態」引導AI,而非根據使用者滿意度優化AI系統。藉此避免AI形成取悅人類的目標,也較不容易發展出抵抗被關閉、或是欺瞞使用者的意圖。
班吉歐解釋,研發成果顯示,可以為神經網路設定訓練目標,讓他們收斂到科學定理這樣的規則來給出「誠實的」預測,「它們不在乎預測結果是否對某個人有幫助。」,藉此打造出更可靠的系統。
這樣的AI系統有如一個博學但無自我目標的科學家,使用科學方法或其他邏輯推理能力,對世界的未來運作給出預測,但不會吸引人類繼續進行互動。在各界加速研發高度自主的「AI代理」時,這樣的系統也可能作為獨立監督層,防止長時間自主行動的代理模型在人類渾然不覺時造成危害。
加拿大電腦科學家班吉歐。Flickr by World Economic Forum
崔藝珍:人工智慧需能持續學習
南韓裔的史丹佛大學人本人工智慧研究中心(HAI)資深研究員崔藝珍(최예진)則指出持續學習的重要性。崔藝珍是自然語言處理與人工智慧領域的頂尖研究者之一,專精AI的常識理解能力與小語言模型(SLM)。她曾獲得麥克阿瑟天才獎,並數次入選《時代》雜誌AI領域百大影響力人物。
崔藝珍認為,現行主流的基礎模型在學習上過於被動,且過於依賴訓練資料,「它沒有真正地為自己思考,只是試著記住我們提供給它的所有文本,然後試著破解我們給它的數學難題。這與人類因為好奇世界如何運作而主動去思考是很不同的。」
人類可以在思考、探索試驗中持續學習,但預訓練的AI模型卻無法在部署中持續學習。在每次對話、互動中獲得的經驗與新知,無法根本地成為模型持續優化的養分。
因而,崔藝珍認為需要採用一種完全不同的學習方式,讓模型可以真正地「自己思考」。這也能從更少量的訓練資料提煉出更強大的智慧能力。
南韓裔的史丹佛大學人本人工智慧研究中心(HAI)資深研究員崔藝珍。Flickr by World Economic Forum
邢波:前進超越文本的物理智慧
出身中國的電腦科學家邢波自2021年來領導阿聯酋的穆罕默德·本·扎耶德人工智慧大學(MBZUAI)。在論壇中,他指出推出K2系列大模型的MBZUAI,是極少數有能力從頭開始自訓基礎模型的學術機構。這有助於社群分享、以及讓大眾更理解AI的安全性與風險。
邢波認為,有許多種定義智慧的方式。現今的大語言模型的智慧其實相當有限,他稱之為「文本智慧」或「視覺智慧」,本質上受限於語言或影片等形式中。但還有許多面向的智慧,是現在的大語言模型無力掌握的。
例如,邢波正在研發的「世界模型」,就可視為是「物理智慧」的展現。近似於Meta前首席AI科學家楊立昆(Yann LeCun)提倡以「聯合嵌入預測架構」(JEPA)構築世界模型,邢波團隊也以新架構「生成式潛在預測」(GLP)打造世界模型,而不建築在既有的LLM基礎上。這對於AI融入硬體的機器人等應用來說至關重要。
(延伸閱讀:AI加速融入實體環境,「世界模型」如何改寫人機互動未來?)
邢波也預期,未來還有互動性的「社交智慧」,以至於「哲學智慧」等發展前景,模型能夠更加主動地發掘新知。
出身中國的電腦科學家邢波。Flickr by World Economic Forum
哈拉瑞:正視「AI移民」進入社會
隨著AI模型能力與智慧廣度提升,安全性問題也成為研發者愈發重視的議題。同場參與的歷史學家哈拉瑞(Yuval Noah Harari)便直指,「沒有人有打造一個人類與AI共存的混合社會的經驗。我們應該更加謙卑,不自認已經知道如何建設它。」
哈拉瑞在2024年出版的著作《連結》(Nexus)中,便深入探索人工智慧融入人類資訊網絡中的影響。他在會場上指出,即便是智慧程度不高的人工智慧,也可以改變以至於危害世界。以人類為自己打造的金融體系為例,一個不知道如何控制機器身體走路的AI模型,也可能在現行的金融交易系統中進行大量交易,累積龐大財富。
稍早,在WEF另一場演說中,哈拉瑞指出,人類社會與政府應該正視「AI移民」。隨著AI自主能力提升,即使不討論哲學層面的意識、基本權利等問題,具有決策能力的AI是否可以被賦予法人身分?是否可以註冊公司,進行商業運作?
人們對人類移民抱有一些憂慮,擔心他們會搶走工作機會、改變本地文化,可能暗地效忠他國政府。「我不確定這是對人類移民的貼切描述,」哈拉瑞說道,「但絕對是對AI移民的貼切描述。」
哈拉瑞以19世紀起源於英格蘭的工業革命為例,當1830年第一條商業鐵路在曼徹斯特與利物浦之間通行時,有些人認為這不過就是來往兩城之間變得更加便利。但在這之後,蒸汽機與鐵路對全世界造成的影響是極其廣大的。
對比人工智慧的發展,哈拉瑞表示,「我們現在處於1834或1835年。」當時間尺度拉長,未來影響範圍不可小覷。
他指出,人類不知道如何打造安全的人機協作社會的經驗,也不該假設自己知道。哈拉瑞表示,「真正的問題是,我們如何打造一套能自我修正的機制?如此一來,即使我們犯了錯,也不會讓一切告終。」