請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

超級AI將到來? Google前執行長籲採納「恐怖平衡」威懾框架

遠見雜誌

更新於 03月14日10:18 • 發布於 03月11日03:07 • 傅莞淇

通用人工智慧(AGI)可能是炒作,但足以傾移國防實力的先進AI技術可能已在不遠處。Google前執行長施密特等人,在一篇新論文中警告,美國若持續以「曼哈頓計畫」形式追求強大人工智慧,可能反招致攻擊、動盪國際局勢。更好的做法,會是稱之為「相互保證AI失靈」的威懾框架。

威脅愈是強大,愈能維持和平。這有些反直覺的論述,牽制了冷戰時期擁核國家發動攻擊。「相互保證毀滅」(MAD)的恐怖制衡機制,也能用於防止超級人工智慧毀滅世界嗎?

人工智慧安全中心(Center for AI Safety)主任亨德里克斯(Dan Hendrycks)、前Google執行長施密特(Eric Schmidt)、Scale AI創辦人汪滔(Alexandr Wang)三名在人工智慧領域具有相當影響力的參與者,於3月初聯名發表一篇名為《超智慧戰略》(Superintelligence Strategy)的論文。審視地緣政治的現實,提出國家面對強大人工智慧系統的策略建議。

論文呼籲,美國不應採用研發核武的「曼哈頓計畫」形式,追求強大人工智慧,或稱通用人工智慧(AGI)。因為這可能促使競爭者採取預防性的破壞行動,使競爭升溫、國際局勢更加動盪。

這可視為對美國政壇近期行動的直接回應。2024年11月,美國國會「美中經濟暨安全檢討委員會」(USCC)在一份報告中提議,以類似國家資助核武研發的「曼哈頓計畫方式」,來發展先進人工智慧。

2月底,在與OpenAI合作的新計畫中,美國能源部長萊特(Chris Wright)直指,70餘年前能源部也參與了曼哈頓計畫,而如今「我們正在新一場曼哈頓計畫的開端」。

美國主導的曼哈頓計畫率先研發出核子彈,然而在冷戰期間維繫和平的可能是「相互保證毀滅」(MAD)的威懾機制。由於參與者都擁有足以毀滅對手的強大武力,並可預期受攻擊者會發動反擊,導致雙方甚至全世界一同毀滅,使得沒有人敢先發起攻擊,如此維持一種緊張但穩定的僵局。

美國能源部長萊特。取自X@SecretaryWright
美國能源部長萊特。取自X@SecretaryWright

美國能源部長萊特。取自X@SecretaryWright

「AI曼哈頓計畫」未完整考量地緣現實

論文認為,以曼哈頓計畫的方式追求AGI,錯誤地預設其他國家(如中國)會坐視對手發展出超智慧。事實上,國家有幾項阻止競者率先開發出先進人工智慧系統的動機。

首先,開發出超智慧的國家可能無法控制這套系統,為全世界帶來風險。其次,就算該國可以完整控制超智慧,也會獲得高度競爭優勢,使得競爭國家陷入嚴重的國安威脅。

面對這樣的國家安全風險,一些國家可能不會透過國際合作、或自行加速研發技術予以應對,而會考慮進行間諜行動、網路攻擊等預防性破壞,阻止他國達陣超智慧。因此,單邊加速追求超智慧,並不符合國際利益。

論文建議從歷史汲取經驗,轉向一個稱為「相互保證AI失靈」(Mutual Assured AI Malfunction, MAIM)的威懾框架。也就是讓每個打造強大人工智慧系統的國家,都擔心會受到預防性的破壞攻擊,放棄追求壟斷的權力。

作者們進一步提出,除了明確表達,任何破壞穩定的超智慧計畫,都會引來風險,美國還應該執行兩大行動。一是阻止AI擴散,亦即掌握晶片流向,阻止危險分子取得算力。二是提升本國競爭力,強化供應鏈韌性。例如,目前對台灣晶片的依賴就是一個須改善的明顯弱點。

結合威懾框架、阻止AI擴散,以及提升本國競爭力這三大策略,會是美國應對地緣現實的審慎進路。論文認為,這是除了「放緩」與「加速」人工智慧研發以外的第三條路,並適度地將更多心力從「加速搶先開發出AGI」轉向「阻止其他國家開發出AGI」。

官方相信先進人工智慧系統「即將到來」?

然而,不同於核武,人工智慧並不是一項由美國政府主導開發的技術。超智慧也不是如核武那麼具體、使用方式明確的技術。先進人工智慧的應用範圍更廣,能否清楚地偵測、辨識超智慧,本身也是一個問號。

在趨向分散的訓練及應用模式中,破壞行動的有效性也值得存疑。若他國發動攻擊、但未能成功破壞目標人工智慧系統,可能直接導致更高等級的衝突。

但施密特認為這是一個值得深思的重要議題。在X上,他表示,超智慧「可能會比人們預期地更早到來。」

其他跡象顯示,美國科技及政策圈似乎愈發嚴肅看待通用人工智慧到來的可能性。除了施密特等人發表的論文,OpenAI近期發表文章〈How we think about safety and alignment〉,解釋發展AGI的動機及降低負面影響的策略。

一向重視AI安全的Anthropic亦向白宮AI行動計畫提出建議,主張加強出口管制、強化安全標準等行動,應對強大AI系統出現的可能性。在採訪中,Anthropic執行長阿莫迪(Dario Amodei)表示,他有七至八成的信心,認為執行大多數任務能力勝過人類的AI系統將在2026、2027年出現。

Anthropic執行長阿莫迪。wikimedia commons by TechCrunch
Anthropic執行長阿莫迪。wikimedia commons by TechCrunch

Anthropic執行長阿莫迪。wikimedia commons by TechCrunch

長年分析政策的美國資深記者克萊因(Ezra Klein)在近期播客節目中,觀察到許多他接觸的人,似乎真正相信AGI的到來。且不是在5~15年的時間軸度,而是在川普任期內就會出現。

克萊因表示,「如果你一直告訴自己這不會發生,我真的認為你要質疑這個觀點。這不是web3。這不是霧件(vaporware)。許多我們談論的事物已經存在此時此刻。」

拜登任期的白宮人工智慧特別顧問布坎南(Ben Buchanan)在節目中同意,強大的AI系統將在幾年內成為現實。目前川普政權面對AI監管,採取與拜登政府不同的路線。但布坎南認為,重視安全與把握機會之間並未有本質上的衝突關係。在良好的安全標準引導下,技術可能獲得更快速的進展。

推進人工智慧發展,美政府退居二線?

川普政府表明,保持人工智慧競賽中的領先地位是優先要務。但與此同時,白宮似乎正在削薄公部門的參與角色,讓私部門領導AI進展。

一方面,川普已讓台積電、蘋果、軟銀等企業承諾數千億美元投資,支持AI相關的基礎建設。另一方面,川普也希望國會廢除2022年的晶片法案,表明反對政府補貼的立場。

川普政府對國家科學基金會(NSF)等公部門的成本削減,可能使得AI發展傾向盈利端,錯失某些不具有明顯獲利模式的效益。更重要的是,許多私企業的創新,是奠基於公部門執行的基礎研究成果。從網際網路到GPS,都是在美國國防部的資助下萌芽。

人工智慧可能將是美國百年間第一個非由國防部資助的革命性技術。這限制了官方對這項技術的基礎理解,可能也對一個「相互保證AI失靈」的威懾框架有效性蒙上陰霾。

更多精采報導,歡迎加入《遠見》 Line官方帳號!

延伸閱讀:

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0