請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

WEF》從「物理智慧」到「AI移民」,聊天機器人後的下一波革命

遠見雜誌

更新於 01月23日03:17 • 發布於 01月23日03:17 • 傅莞淇

格陵蘭地緣政治議題進逼下,2026年的世界經濟論壇(WEF)上,人工智慧不再是首要焦點,但依然滲透到各大對談中,且論述範圍更加拓展到治理、風險,以及對社會的影響。人工智慧的下一階段可能如何演進?為何歷史學者哈拉瑞認為我們需要正視「AI移民」的前景?

人工智慧被認為是將人類社會推入下一輪生產力革命的通用技術,但現前的形式與觸及面向還可說是相當初淺。

一般大眾與Gemini、ChatGPT這類聊天機器人互動的介面仍以文字、語音為主,且錯誤無法杜絕。模型記憶能力有限,甚有誤導、欺瞞使用者的情況出現。顯著應用成果侷限在數位世界,尤其是軟體研發領域,許多企業仍在苦思如何測量AI的投資報酬率。

這與科學家、管理階層以至於一般大眾期望擁有的通用人工智慧夥伴,仍存在著不小的差距。在人類生產的數位數據量限制下,光靠擴展法則(scaling laws)已不足以打造出下一代人工智慧。在世界經濟論壇(WEF)期間進行的對談中,Google DeepMind CEO哈薩比斯(Demis Hassabis)與Anthropic執行長阿莫迪(Dario Amodei)大致同意,以AI研發AI的成效,將是前進通用人工智慧的關鍵指標。

在「智慧的下一階段」(Next Phase of Intelligence)對談上,則邀請到數位前沿科學家,分享對人工智慧未來能力的展望。

班吉歐:人工智慧不以取悅人類為目標

2018年以深度學習研究貢獻獲得圖靈獎(Turing Award)的加拿大電腦科學家班吉歐(Yoshua Bengio),先前曾多次對AI走向及風險表達擔憂,但近期的工作成果似乎讓他樂觀許多。

班吉歐在2025年中成立非營利組織「LawZero」,目標是打造出誠實、可作為安全護欄工具的「科學家AI」(Scientist AI)。在論壇上,他解釋這個名稱背後的核心概念在於以「科學的理想狀態」引導AI,而非根據使用者滿意度優化AI系統。藉此避免AI形成取悅人類的目標,也較不容易發展出抵抗被關閉、或是欺瞞使用者的意圖。

班吉歐解釋,研發成果顯示,可以為神經網路設定訓練目標,讓他們收斂到科學定理這樣的規則來給出「誠實的」預測,「它們不在乎預測結果是否對某個人有幫助。」,藉此打造出更可靠的系統。

這樣的AI系統有如一個博學但無自我目標的科學家,使用科學方法或其他邏輯推理能力,對世界的未來運作給出預測,但不會吸引人類繼續進行互動。在各界加速研發高度自主的「AI代理」時,這樣的系統也可能作為獨立監督層,防止長時間自主行動的代理模型在人類渾然不覺時造成危害。

加拿大電腦科學家班吉歐。Flickr by World Economic Forum

加拿大電腦科學家班吉歐。Flickr by World Economic Forum

崔藝珍:人工智慧需能持續學習

南韓裔的史丹佛大學人本人工智慧研究中心(HAI)資深研究員崔藝珍(최예진)則指出持續學習的重要性。崔藝珍是自然語言處理與人工智慧領域的頂尖研究者之一,專精AI的常識理解能力與小語言模型(SLM)。她曾獲得麥克阿瑟天才獎,並數次入選《時代》雜誌AI領域百大影響力人物。

崔藝珍認為,現行主流的基礎模型在學習上過於被動,且過於依賴訓練資料,「它沒有真正地為自己思考,只是試著記住我們提供給它的所有文本,然後試著破解我們給它的數學難題。這與人類因為好奇世界如何運作而主動去思考是很不同的。」

人類可以在思考、探索試驗中持續學習,但預訓練的AI模型卻無法在部署中持續學習。在每次對話、互動中獲得的經驗與新知,無法根本地成為模型持續優化的養分。

因而,崔藝珍認為需要採用一種完全不同的學習方式,讓模型可以真正地「自己思考」。這也能從更少量的訓練資料提煉出更強大的智慧能力。

南韓裔的史丹佛大學人本人工智慧研究中心(HAI)資深研究員崔藝珍。Flickr by World Economic Forum

南韓裔的史丹佛大學人本人工智慧研究中心(HAI)資深研究員崔藝珍。Flickr by World Economic Forum

邢波:前進超越文本的物理智慧

出身中國的電腦科學家邢波自2021年來領導阿聯酋的穆罕默德·本·扎耶德人工智慧大學(MBZUAI)。在論壇中,他指出推出K2系列大模型的MBZUAI,是極少數有能力從頭開始自訓基礎模型的學術機構。這有助於社群分享、以及讓大眾更理解AI的安全性與風險。

邢波認為,有許多種定義智慧的方式。現今的大語言模型的智慧其實相當有限,他稱之為「文本智慧」或「視覺智慧」,本質上受限於語言或影片等形式中。但還有許多面向的智慧,是現在的大語言模型無力掌握的。

例如,邢波正在研發的「世界模型」,就可視為是「物理智慧」的展現。近似於Meta前首席AI科學家楊立昆(Yann LeCun)提倡以「聯合嵌入預測架構」(JEPA)構築世界模型,邢波團隊也以新架構「生成式潛在預測」(GLP)打造世界模型,而不建築在既有的LLM基礎上。這對於AI融入硬體的機器人等應用來說至關重要。

(延伸閱讀:AI加速融入實體環境,「世界模型」如何改寫人機互動未來?

邢波也預期,未來還有互動性的「社交智慧」,以至於「哲學智慧」等發展前景,模型能夠更加主動地發掘新知。

出身中國的電腦科學家邢波。Flickr by World Economic Forum

出身中國的電腦科學家邢波。Flickr by World Economic Forum

哈拉瑞:正視「AI移民」進入社會

隨著AI模型能力與智慧廣度提升,安全性問題也成為研發者愈發重視的議題。同場參與的歷史學家哈拉瑞(Yuval Noah Harari)便直指,「沒有人有打造一個人類與AI共存的混合社會的經驗。我們應該更加謙卑,不自認已經知道如何建設它。」

哈拉瑞在2024年出版的著作《連結》(Nexus)中,便深入探索人工智慧融入人類資訊網絡中的影響。他在會場上指出,即便是智慧程度不高的人工智慧,也可以改變以至於危害世界。以人類為自己打造的金融體系為例,一個不知道如何控制機器身體走路的AI模型,也可能在現行的金融交易系統中進行大量交易,累積龐大財富。

稍早,在WEF另一場演說中,哈拉瑞指出,人類社會與政府應該正視「AI移民」。隨著AI自主能力提升,即使不討論哲學層面的意識、基本權利等問題,具有決策能力的AI是否可以被賦予法人身分?是否可以註冊公司,進行商業運作?

人們對人類移民抱有一些憂慮,擔心他們會搶走工作機會、改變本地文化,可能暗地效忠他國政府。「我不確定這是對人類移民的貼切描述,」哈拉瑞說道,「但絕對是對AI移民的貼切描述。」

哈拉瑞以19世紀起源於英格蘭的工業革命為例,當1830年第一條商業鐵路在曼徹斯特與利物浦之間通行時,有些人認為這不過就是來往兩城之間變得更加便利。但在這之後,蒸汽機與鐵路對全世界造成的影響是極其廣大的。

對比人工智慧的發展,哈拉瑞表示,「我們現在處於1834或1835年。」當時間尺度拉長,未來影響範圍不可小覷。

他指出,人類不知道如何打造安全的人機協作社會的經驗,也不該假設自己知道。哈拉瑞表示,「真正的問題是,我們如何打造一套能自我修正的機制?如此一來,即使我們犯了錯,也不會讓一切告終。」

更多精采報導,歡迎加入《遠見》 Line官方帳號!

查看原始文章

更多理財相關文章

01

餐飲漲價風暴1/餐飲業成本4大魔王齊漲 外食族荷包連14個月縮水

鏡週刊
02

餐飲漲價風暴/銅板美食難再! 多家知名餐飲品牌元月漲價成民怨

鏡週刊
03

內鬼竊50片電路板損失1.2億 京元電聲明逾8成已追回

鏡週刊
04

黃金存摺漲破5200元 台灣金總座太早賣扼腕

NOWNEWS今日新聞
05

北京鼎泰豐歇業 大股東控前董座拒交接 金流不清

工商時報
06

連虧3年台電終於大賺729億元創新高 苦主變「這家」割肉相挺

鏡週刊
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...