全球科技公司爭相開發更強大的AI,卻一直忽視安全措施的重要性。美國非營利研究機構「生命未來研究所」(Future of Life Institute)12月初發布一份「AI安全指數報告」(FLI AI Safety Index 2024),探討包括OpenAI和Google DeepMind在內的公司,如何應對AI科技可能帶來的危害。令人擔憂的結果是,所有的AI都存在安全漏洞。
生命未來研究所曾在2023年發表公開信,呼籲暫停大規模AI模型訓練,獲得高達三萬多名科技人士的支持。
《時代雜誌》報導,為了撰寫AI安全指數報告,未來生命研究所成立一個由七位獨立專家組成的小組,包括被譽為資工界諾貝爾獎的「圖靈獎」得主本吉奧(Yoshua Bengio),以及促進AI社會正義的國際組織Encode Justice創辦人雷瓦納(Sneha Revanur)。這些專家對科技公司在六個關鍵領域進行評估,包括:風險評估、當前危害、安全框架、存在性安全策略、治理與問責,以及透明度與溝通,並考慮各種潛在危害,從碳排放到AI系統失控的風險。
加州大學電腦科學教授,也是專家小組成員之一的羅素(Stuart Russell)在一份聲明中表示:「AI安全指數項目的研究結果指出,儘管許多AI公司針對安全領域做了不少努力,但目前這些措施的效果還不太顯著。」
AI安全指數報告。取自futureoflife.org
Claude母公司Anthropic拿下最高分數
儘管宣稱以「負責任」的方式開發AI,開發出AI模型Llama的Meta獲得最低分F,而馬斯克的AI公司X.AI也表現不佳,總體評分為D-。至於OpenAI則獲得D+的評分,Google DeepMind同樣也是D+。今年5月在首爾AI峰會上承諾遵守安全的中國智譜AI,則獲得D的分數。
聊天機器人Claude母公司Anthropic排名最高,獲得C的分數。
報告特別指出,所有參與評分的模型都被發現有安全漏洞,現有安全措施不足以確保AI能保持安全,並受人類控制。
蒙特婁大學決策科學系助理教授馬哈拉(Tegan Maharaj)說,有必要對這些公司進行「獨立監督」,而不是只依賴公司自行進行的內部評估。「有些公司甚至連基本的安全措施都沒有落實,」馬哈拉說:「包括智譜AI、X.AI和Meta。」
然而,報告中也提到,其他風險還包括AI模型開發上的問題,要克服這些問題,就需要技術上的突破。
圖靈獎得主本吉奧則在聲明中強調AI安全指數的重要性,「這些評分對於企業的安全承諾和問責至關重要,並促使競爭對手採取更負責任的方法。」
聊天機器人Claude母公司Anthropic排名最高。取自Anthropic AI
「完全無規範的行業」
生命未來研究所創辦人之一的泰格馬克(Max Tegmark)接受《CNBC》專訪時指出,這份AI安全指數報告,將焦點放在當前技術的潛在風險與安全問題上,強調需要更多的監管與標準化管理。他說,這份報告目的是在激勵AI開發公司提升安全性,就如同《美國新聞與世界報導》的年度大學排名,藉此推動學術進步一樣。
泰格馬克表示,AI公司在安全防護上取得了進步,例如在訓練大型語言模型上避免產生有害內容,但這只有解決表面問題。「目前的AI安全措施,更多是在限制模型表達,而非控制其內在行為,」他說:「這類方法就像訓練一名連環殺手隱藏其意圖,這無法從根本上解決問題。」
「隨著更多AI系統參與實際應用,包括管理銀行賬戶、自動駕駛車輛等,對AI內部目標的控制就變得相當重要,但現有技術框架無法提供一定的安全保證。」泰格馬克認為,AI是目前美國唯一完全沒有安全標準的產業,「如果要推出一款新藥,FDA會進行臨床實驗審核,開設餐廳也需要通過衛生檢查,但AI產業現在的情況是,企業爭相開發AI,卻沒有人負責設置安全標準。」
他呼籲將AI納入與其他行業類似的安全監管框架中,這樣不僅能解決現有的安全疑慮,還能為企業提供創新動力,「如果企業無法滿足安全要求,他們就無法推出產品,這種激勵機制將大大改變當前局勢。」
總結來說,泰格馬克對AI的潛力持謹慎樂觀態度,認為如果能制定適當的政策並解決技術上的基本問題,AI將帶來巨大的社會與經濟效益,雖然當前挑戰重重,但設置明確的標準與監管機制將是推動產業健康發展的重要關鍵。
泰格馬克對AI的潛力持謹慎樂觀態度,認為如果能制定適當的政策並解決技術上的基本問題,AI將帶來巨大的社會與經濟效益。
延伸閱讀: