AI 助理 Fargo 互動突破 2.45 億次,富國銀行如何在不外洩客戶資料的前提下部署 AI
來自美國的富國銀行(Wells Fargo),正在悄悄實現大多數企業仍在夢想的事:打造出一個有效、大規模、可投入生產的生成式 AI 系統。2024 年,富國銀行的 AI 助理 Fargo 已處理了 2.45 億次互動,且宣稱從來沒有將敏感的客戶資料暴露給外部 AI 模型。
富國銀行認為,不久的將來 AI 可能成為多數客戶進行銀行業務的首要方式,甚至取代實體分行或是銀行網站。根據富國銀行,2025 年透過行動 App 和 Fargo 與其互動的客戶數量,已經超過到其分行或連繫客服中心的客戶數。
AI 助理 Fargo 目前的主要功能,是透過語音或文字幫助客戶處理日常銀行需求,包括協助支付帳單、轉帳、提供交易詳情,以及回答關於帳戶活動的問題。然而,Fargo 與客戶互動過程勢必涉及大量個人隱私資訊,富國銀行具體怎麼做,以確保資料安全?
1.隱私優先的設計:如何在保護資料下實現 AI 功能
富國銀行的 AI 系統,採用「隱私優先」的流程運作──客戶透過應用程式和 Fargo 互動時,語音內容會先在地端透過語音轉文字的 AI 模型進行轉錄。然後,這些內容會經由富國銀行的內部系統進行清理和標記,包括使用小型語言模型(SLM)來檢測個人識別資訊(PII)等。
只有在上述步驟完成後,系統才會呼叫 Google 的 Flash 2.0 模型來提取用戶的意圖和相關實體。整個過程中,沒有任何敏感資料會接觸到外部的大型語言模型。富國銀行資訊長 Chintan Mehta 在《VentureBeat》採訪中表示,這是讓「編排層與模型進行對話,」系統扮演的角色是「過濾器」。
「過濾器」的意思是什麼?Mehta 補充,模型唯一能做的事,就是根據用戶提供的簡短語句來確定意圖,例如識別請求是否涉及儲蓄帳戶,「我們(富國銀行)的 API,沒有一個會經過大型語言模型。」
2. 模型選擇與彈性部署:管理多模型、多雲端的複合系統
富國銀行的 AI 部署是「複合系統」──由編排層根據任務決定使用哪個模型,像遇到 AI 助理 Fargo 就調用 Google Flash 2.0,另外也還有 Llama 等較小的模型,以及 OpenAI 的模型提供內部其他需求使用,過程自動化進行甚至無須人工干預。
至於要選擇納入哪些模型?Mehta 表示,雖然在寫程式方面,Claude Sonnet 3.7 和 OpenAI 的 o3 mini 表現出色、在深度研究方面,OpenAI 的 o3 表現也不錯,但他認為,先進的 AI 模型之間的性能差距很小,對組織來說,更重要的問題是如何將這些 AI 模型編排到流程之中。
另外,AI 模型的上下文窗口大小,也是 Mehta 鑑別 AI 模型的重要指標。他指出,在 RAG(檢索增強生成)等應用場景中,預處理數據所需的資源投入常常超過 AI 最終輸出的價值。而擁有龐大上下文窗口的模型能直接處理更多原始數據,無需過多預處理,因此具有明顯優勢。
Mehta 也強調,儘管富國銀行十分仰賴 Google 和微軟的雲端服務,但富國銀行仍有自己的資料中心,「我們採用多模型和多雲。」
3. 朝向更自主的 AI 系統:多代理設計、AI 推理
AI 發展的下一浪潮「AI 代理(AI Agents)」也是富國銀行的部署方向──系統不只自動,還具有自主性。其建立了一個由多個 AI 代理組成的網絡,其中一些代理由 LangGraph 等開源框架所打造。
這些 AI 代理各司其職,有的負責從檔案庫找出文件、有的負責萃取文件內容、有的把資料和記錄系統進行配對,然後繼續在流程中進行各類計算——這些任務,在傳統上都需要真人分析師,但現在多數可以自動完成,人類則審查最終輸出。
此外,富國銀行還在評估用於內部使用的推理模型,Mehta 表示,雖然大多數模型現在都能很好地處理日常任務,但推理是不同情況,有些模型明顯比其他模型做得更好。
整體來說,富國銀行透過分層保障和內部運作邏輯,讓 AI 遠離任何敏感資料的傳輸路徑,《VentureBeat》觀察,這也解決了金融業者對於採用外部大型語言模型的擔憂。
【推薦閱讀】
◆ 「小型語言模型」崛起!SLM 將成為 2025 企業 AI 新寵的三大優勢
*本文開放合作夥伴轉載,資料來源:《VentureBeat》、WELLS FARGO、Evident AI Index、《Banking Dive》,首圖來源:AI 工具 ideogram 生成。