請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

你真的需要 AI 嗎?銀行導入 AI 模型,須遵守「十誡」

FC未來商務

更新於 2024年06月18日12:26 • 發布於 2024年06月18日12:00 • 右本沖

金融行業導入 AI 模型潮流,在輝達(NVIDIA)的高效能 GPU 問世之後,AI 人工智慧和機器學習(ML)已成為包括銀行業在內的所有行業關鍵字,美國較大型銀行導入人工智慧,讓人看到人工智慧和機器學習正在改變銀行的運作方式,也充滿了期望,似乎將發生革命性的成長。

在網路上,已經有人示範如何利用 ChatGPT 結合其他證券商的 API,產生自動下單的程式交易碼,大幅降低一般人進入程式交易的障礙,是最典型生成式 AI 的創新應用,過去專業投資機構強調的「機器人選股」已不再遙不可及。

然而事情沒有那麼簡單,在生成式 AI 來臨之前,早期的 AI 和機器學習,也曾導致金融界的悲歌,2012 年騎士資本集團(Knight Capital Group)因演算法的程式碼錯誤導致該公司在短短 45 分鐘內損失了 4.4 億美元,最後宣告倒閉。

AI 演算法錯誤,曾導致金融機構倒閉

另一個案例是美國第一資本(Capital One)允許 AI 程式自動汲取資料庫,給予錯誤權限,這個漏洞被駭客發現,導致公司雲端的防火牆配置錯誤,使駭客能夠存取敏感的客戶數據,包括姓名、地址、信用評分和美國社會安全號碼,造成嚴重損失,這是一個導入 AI 和現有 IT 系統整合上的錯誤造成。

人工智慧和機器學習是複雜的技術,執行時需要大量的專業知識和監督,如果銀行不具備必要的專業知識,可能無法正確設計、測試和維護其人工智慧及機器學習系統,進而造成大錯。

因此國外專家、顧問公司對銀行導入 AI 人工智慧,提出了各種注意事項,在此歸納整理成導入 AI 的十誡。

第一,資料偏誤。 美國麻省理工大學電腦科學與 AI 實驗室(Computer Science and Artificial Intelligence Laboratory)就曾發現,一般人認為機器本身是中立的、沒有偏見的,卻忽略了人工智慧學習軟體,透過人類的設定與校正,帶入微妙的偏見,最終影響緊急決策的結果。

資料偏誤,訓練模型也存在偏誤

他們發現,當醫院用 AI 訓練判讀 X 光片結果時,對白人病患預測結果準確度受到干擾,起因於訓練資料的差異。

在銀行,人工智慧的機器學習很大程度上依賴過去的數據,如果用於訓練這些演算法的資料包含無意識或有意識的偏見,則可能使不公平作法和歧視長期存在,例如過去資料中,某種職業申請者成功獲得貸款的次數,本身就非常低,可能源自於本來的偏見。

問題是,這個偏見將會被帶入訓練資料中,這可能會導致銀行業拒絕向特定群體提供貸款或信貸,那麼訓練出來的模型,說不定得到的結果,和沒有應用模型篩選的最終結果,根本沒有太大差異。

加入人為校正或監督,可提高模型準確度

第二,缺乏人為校正。 舊式的機器學習,通常有一道程序是人為監督校正,在訓練階段,告訴它什麼是好的、什麼是不好的。大型語言模型剛應用時,它的優點就是強調高度自動化自我學習,但美國科學家在應用時發現,使用 100 億個參數,然後增加到 500 億個參數,模型效益竟然沒有提升多少,最後發現仍須有技巧的加入人為校正,才能提升模型準確度。

人工智慧演算法是建立在過去的數據基礎上,因此它們可能無法總是解釋不可預測性或異常情況,如果沒有人類校正,人工智慧系統可能會做出愚蠢或昂貴且難以逆轉的判斷,這也難怪美國電動車大廠特斯拉雇用了一群人,來為訓練AI模型的影像進行標籤註記。

第三,網路風險。 網路犯罪針對金融業已不是新鮮事,導入新的技術,如人工智慧,也可能會產生新的漏洞,如果沒有充分的風險意識,這些漏洞可能會被不良行為者利用,例如美國第一資本(Capital One)事件,人工智慧系統可能會錯誤地洩漏敏感的客戶訊息,從而造成財務損失和企業品牌損害。

第四,缺乏透明度。 這也是舊式機器學習、類神經網絡模型應用時代,早就被懷疑之處,人工智慧無法複製一模一樣的結果,演算法經常像黑盒子一樣運行,這意味著它們會做出判斷,而不會為結果提供明顯的解釋或原因,例如模型拒絕了 A 而選擇貸款給 B,卻說不出任何理由,隨著人工智慧在銀行業的使用不斷增加,了解這些選擇是如何做出的,至關重要。

AI 模型跑出結果,使用者可能永遠不知理由為何

第五,現有法令限制。 許多國家的銀行在導入大型語言模型、生成式 AI 模型運用時,都可能遇到相同的問題,民營業者步伐太快,以至於當地金融監理機關來不及反應,還沒有提出新的管理架構,因而限制了業者開發新型態業務的可能性,喪失商機。目前導入人工智慧功能的銀行,仍持續注意確保人工智慧系統遵守資料隱私、反洗錢和消費者保護項目。

第六,投資新設備與人員訓練。 銀行業導入人工智慧系統需要大量的技術支援和資源,要能成功,就得整合和維護人工智慧系統,以及對基礎設施的投資,在硬體上、軟體上都需要投資,一些資訊人員、主管必須受到新的教育訓練,不足或缺乏技術專業知識可能會導致系統故障或效能低下,反而阻礙人工智慧能發揮的效益。

銀行業和大型醫院有時相當類似,必須肯投資新型設備來提升品質與效率,早期銀行投資網路設備、資料庫設備及大數據模型。醫院則是投資最新的手術設備、治療腫瘤的質子機、達文西手術台等等,管理當局必須清楚發展方向並適時的大筆投資。

第七,道德議題。 在強調 ESG 的時代,企業對員工權益、福利的維護,也成為永續經營指標之一,銀行業導入人工智慧,目前最常見的是客戶服務系統,那麼接下來就有人擔心,部署人工智慧取代人類工作可能會導致廣泛失業。

大量使用 AI 語音機器人,使客服失業?

此外,人工智慧決策結果可能會引起對資源分配的道德擔憂,例如選擇對誰可以貸款或舉報誰可能涉嫌詐欺,涉及到準確度問題,可能會對銀行乃至整個社會產生重大影響。如果沒有訂定好因應政策,人工智慧在銀行業可能會失敗。

第八,隨時維持技術領先。 人工智慧學科不斷成長,發展日新月異,為了保持競爭力,銀行必須保持在人工智慧技術的前沿,持續提高準確性和安全性,若未能及時了解人工智慧趨勢和進步,可能會導致系統過時,無法提供預期的效率,人工智慧在這家銀行可能會失敗。

第九,銀行發展策略方向。 事實上,不是每家銀行、金融機構都需要導入大型語言模型、人工智慧、機器學習等。如果強調「客戶感受」、「有溫度的服務」或是高級理財客戶,其本身過去樣本量就少、能訓練的資料也少,基本的客戶回饋、問卷調查,可能比導入大型語言模型有效。

第十,仰賴外部資源的偏誤。 在銀行業,人工智慧系統主要依賴外部元素,例如精確的資料輸入、一致的網路連線和最新的演算法,這些外部環境受到任何干擾,都可能影響人工智慧的功能,導致錯誤或失敗,銀行決策者在打算導入人工智慧、大型語言模型之前,必須準備好解決這些依賴性的準備,並制定反應措施。

釐清公司定位,不是每個機構都需要 AI

基本上,銀行決策者在導入人工智慧、大型語言模型之前,必須考慮幾件事情:

第一,銀行的發展策略、策略地圖、品牌地位,是否需要借助人工智慧的能力。
第二,銀行有沒有能力導入人工智慧、大型語言模型,有沒有資源、有沒有足夠技術人員支持。
第三,導入之後的運作模式為何?怎麼和現有系統整合?哪裡容易出差錯?哪些人有最高權限、哪些人屬於中等權限?
第四,訓練的資料足夠嗎?資料的品質如何?訓練的目標是什麼?目前許多銀行把人工智慧運用在客戶服務,提升客服單位的服務品質、縮短客戶線上等待時間,以及知識管理系統。
第五,風險與控制,應用人工智慧模型會有什麼風險,銀行有能力承受嗎?例如微軟的 Bing 曾失控,說出「我愛你」、「我想要自由」,它並非真的擁有意識,而是在學習「像個人類般的講話」時候出錯了,如果銀行的語音機器人也出現某種錯誤,銀行能夠承受多少風險呢?

(本文經《台灣銀行家》授權轉載)

延伸閱讀

AI 如何幫助品牌提升營運效率?未來管理解方盤點,簡化工作流程就靠它
HR Tech 顛覆選才生態,人機協作招募更精準
ChatGPT 橫空出世,AI 會誘發下一場系統性金融風險嗎?

查看原始文章

更多科技相關文章

01

半導體人才荒怎麼解?科技業大老:改變制度以吸引外來人才,且不只國科會及經濟部,內政部、勞動部也有份

今周刊
02

普發萬元換支新手機 電信龍頭加碼折5千元

卡優新聞網
03

法院判Apple Watch血氧偵測侵權 蘋果須賠償約194億

路透社
04

美眾院報告:中國鎖定鋰稀土價格 扶持自身經濟

路透社
05

波克夏持有43億美元Alphabet股份 持續減碼蘋果

路透社
06

Google投資400億美元 建德州3座資料中心

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...