請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

讓科技變得更加「可信任」,富士通要打開AI黑盒子

數位時代

更新於 2019年05月23日06:58 • 發布於 2019年05月20日03:16 • 陳君毅

當日本年號從「平成」走向「令和」,日本的ICT龍頭富士通(Fujitsu)也將在6月正式迎來新社長時田隆仁,他首度在5月舉行的2019年的富士通論壇(Fujitsu Forum)發表談話,主題圍繞在富士通2019年的新願景「信賴」。

現在,所有人類都面臨著伴隨科技發展帶來的挑戰。如AI能帶來許多方便,卻始終帶著「黑盒子」的特性;網路安全的不確定性、隱私問題與假新聞等議題,也讓所有人不斷反思科技飛馳發展的反作用力。

對此,富士通的解方是「信任、信賴」,其中可解釋的AI(explainable AI)是重點的發展核心。

透過「知識圖譜」技術,讓AI決策過程可解釋

現在深度學習(deep learning)的能力甚至已經超越了人類孩童。舉例來說,CNN(卷積神經網路,Convolutional Neural Network)技術讓電腦辨識的能力大幅提升。2015年微軟研究團隊在圖像辨識領域的成果已經超越人類,在同樣的圖像辨識測驗中錯誤率較人眼還低。

但人類卻始終沒有辦法打開AI的黑盒子(Black Box),面對深度學習複雜的神經網路難以理解其判斷原理,只知道把資料丟進去,AI就會辨識結果。一樣舉圖像辨識為例,當我們教AI辨識貓的圖片,AI會判斷一張圖片有多少比例是貓,卻不會告訴我們怎麼做。「它應該要告訴我們,是靠毛、眼睛還是耳朵特徵來判別一隻貓。」富士通亞洲區域長國澤有通解釋道。

不過,當AI的決策攸關到人命、司法判決,無法解釋決策的過程,將會考驗人類對於AI的信任程度。根據富士通所做的數位轉型調查,有52%的人認為無法相信AI、有63%的人認為AI需要清楚的解釋。因此「可解釋的AI」,是讓人類更信任AI的技術。

新上任的富士通社長時田隆仁則舉了更多關於科技「信任」的例子,如現在很多企業採用AI來做初步的面試篩選,但如果AI學習的資料來源有種族、性別的成見,也無法公正地做出決策。

透過大量的學術文獻打造的知識圖譜,讓AI推倒結論的關聯性可視化,人類有機會一窺AI內部的黑盒子。
透過大量的學術文獻打造的知識圖譜,讓AI推倒結論的關聯性可視化,人類有機會一窺AI內部的黑盒子。

富士通的Deep Tensor機器學習技術,就透過整合知識圖譜(knowledge graph)的方式,讓AI的思考有跡可循。目前應用場域包含醫學方面的診斷,富士通實驗室將Deep Tensor用於找尋基因突變與疾病間的關聯。

透過大量基因組學(genomic medicine)的學術文獻,在深度學習中加入更易懂的知識圖譜,讓人類得以解讀。目前還需要更多可以應用的場域,來擴大可解釋AI的可行性與準確性。

富士通新社長:想靠科技打造可信任的未來

時田隆仁先前任職於富士通的全球服務執行中心(Global Delivery Centers),在全球八個國家共有1.4萬名員工,向富士通的客戶提供客服跟外包研發的工作,以及各式各樣的IT基礎架構服務與管理服務。

不斷在多個服務中心飛來飛去的時田隆仁,體驗過各種不同國家的多樣性與文化。「我想把自己體驗的國際化,充分運用到富士通的經營上。」時田隆仁說。

最後,他也不忘向所有人精神喊話,「富士通具有將夢想轉換成現實的DNA,希望透過科技創造可信任的未來,以及更富足的生活。」

每日精選科技圈重要消息,歡迎加入《數位時代》LINE@!

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0