一台開在二線道上,煞車失靈的自駕車,繼續直行將撞上老太太;但如果切換道路,則會撞上小朋友。在這個二選一的難題裡,自駕車背後的人工智慧(AI)系統,會做出什麼決定?更直接的問題則是:誰該負責?
2023年ChatGPT劃世代的進展,象徵AI進入輝達創辦人黃仁勳所說的「iPhone時刻」:每個人都能接觸AI,並且將AI應用在自己的生活與工作上。也正是因為如此,人類也更具體感受到AI帶來的威脅——不論是個人或企業均是如此。
AI風險難控制,連奧特曼、馬斯克都憂心
正如Open AI創辦人奧特曼(Sam Altman)今年9月受邀出席《天下雜誌》AI大師論壇中提到的那個「但是」:「每個人都可以藉由AI獲得最棒的學習與醫療資源⋯⋯。但是,社會必須做出正確的決定,這麼強大的運算能力,不能被單一公司或一小群人掌握。」
這個「但是」毫無疑問,與發展AI同樣重要。就連被譽為「天才」的特斯拉創辦人馬斯克(Elon Musk)在11月1日全球人工智慧安全高峰會上也警告,「AI出現後,這是人類史上第一次面對遠比自己更聰明的事物⋯⋯。我們不知道能不能控制它,但是我們可以導引AI到對人類有利的方向。」
在AI全力加速與失控邊緣之間,企業能否建立起「負責任的AI」或是「符合道德的AI」,恐怕是遠比開發AI更困難的任務。
數字會說話:根據波士頓諮詢公司(BCG)2023年最新報告,53%的企業在導入AI工具時,缺乏自主開發能力,完全仰賴外部採購;但卻有2成企業缺乏評估AI風險能力。換句話說,有許多企業在缺乏控管的前提下,閉著眼睛讓員工或顧客暴露在AI的風險下。
「AI道德長」浮上檯面,為企業煞車
事實上,各國政府已經針對AI監管採取行動,不只歐盟最高立法機構「歐州議會」今年6月已通過AI法案,美國第一份AI行政命令也在10月31日由總統拜登簽署;台灣早在3月就由法律學者發表民間版《AI基本法》草案,並預計年底推出相關指引。
立法者動起來的同時,企業如何兼顧AI發展與法律遵循,成當務之急。這也是「AI道德長(Chief AI Ethic Officer)」這個新興職位浮上檯面的原因。
事實上,AI道德長已經在企業行之有年,特別是致力於提供AI解決方案的科技巨擘,例如IBM、Salesforce、微軟都有設立AI道德長。他們的工作簡單來說,就是幫助企業用AI作對的事情,確保決策符合企業文化與倫理準則,避免為人類社會帶來負面效果。
勤業眾信(Deloitte)報告分析,AI道德長與其團隊要能扮演監督者的角色,必須具備以下4種能力:
1.科技知識:AI道德長雖然不需要寫程式,仍要能從技術層面掌握AI開發流程,掌握技術細節。
2.監管知識:除了既有法規,各國AI相關法律與審查流程也在成形中,都是企業發布相關功能必須注意的。
3.商業與產業知識:在訂定內部規範時,必須符合產業與企業現況,避免遵循AI規範成為企業的負擔。
4.溝通與跨域工作能力:同時與技術研發、法律遵循以及政府關係部門協作,扮演跨部門之間的橋樑。
負責任AI,為何說得到、做不到?
AI道德長的任務,也反映了企業發展AI過程的兩難。
許多企業已經將「AI道德」與「負責任AI」納入開發準則。例如在微軟、Sony與Adobe等跨國企業網站,就有一頁說明如何打造「負責任AI」、企業如何建立與落實AI規範。以Adobe為例,就明確列出如何在訓練、測試、影響力評估等層面監督AI開發。
儘管如此,內部監督AI的力量在多數企業裡依舊不足。波士頓諮詢公司AI道德長米爾斯(Steve Mills)接受網路媒體《AI Business》專訪時提到,許多企業無力處理AI道德問題,建立負責任AI的原因有3:
第一,負責人權力不足。AI的道德與法遵議題涵蓋各部門,米爾斯表示,「必須要由有權威的人來啟動組織變革,才能達成這個目的。」
第二,資源不足。不論是對於AI、法遵或ESG部門的人而言,AI道德議題並非他們的「本業」。就像是抽出額外時間,反過來挑自己既有業務的毛病,自然缺乏推動意願。
第三,機制不足。AI技術仍持續發展中,企業內部普遍缺乏專業能力與經驗,無法結合既有風險控管流程發揮監督作用。
事實上,AI道德議題之廣,已經遠超過企業內部監督範圍。
政治大學法學院教授王立達以企業間的價格競爭為例,早在2018年歐盟就已發現,3C製造業者會透過演算法監控網路各賣場價格,並且根據競爭對手價格自動出價。當所有主要廠商透過演算法「上下交相賊」,很有可能變相價格勾結,聯手控制市場。屆時政府如何從演算法中看出蛛絲馬跡,甚至舉證並追究責任,這都是很大的挑戰。
換句話說,不論是政府端或是企業端,AI規範才剛開始。人類發展了數千年,透過思辨形成人際間的道德、法律規範;但如今AI橫空出世,並且快速滲透人類生活,同時,我們顯然沒有下個一千年來思考如何應對AI,這恐怕才是對全人類最大的挑戰。
更多Cheers精彩文章
祥 工程師會被取代
06月26日21:04
lesane AI時代裏,挑出癥結很重要。
比如其中一個徴結就是 “太多人想當王,但真正夠格有足夠世界觀的 卻少很多。”
這個結論,AI不一定會告訴大家。
所以,如何善用AI 去 找到癥結 並 對症下藥很要緊。
強大的 算力可以把安全帽的 3D結構 和 潛意識都一起算出來,但 結果不一定能改善社會多少。
這個時代需要專才,也需要多才。若 有幸遇到通才,那最好能讓他做通才的 事;讓他做專才也行,但 當需要解決大社會問題時,別忘了問問他的 想法。
06月26日15:06
顯示全部