近期一項研究顯示,美國有高達 9,200 萬低收入人口的生活正受到 AI 決策的影響。這個數據不僅凸顯了 AI 在現代社會中的普及程度,更警示了 AI 決策可能帶來的系統性風險。也就是說,隨著 AI 技術的快速發展,除了導入 AI 各產業將帶來風險,其對社會各個層面的影響日益加深,尤其是對弱勢群體的影響更為顯著。
AI 代理時代來臨!Gartner 預測,2028 年 15% 日常工作決策將由 AI 代理自主完成
AI 相關決策問題對社會各個層面的影響日益加深
從社會層面來看,在醫療保健領域,AI 決策系統的影響範圍極其廣泛。目前約有 7,300 萬人在 美國的低收入健康保險計劃(Medicaid)申請過程中受到 AI 決策的影響,以及超過 3,000 萬人在私人保險領域遇到 AI 相關決策問題。這些系統雖然提高了處理效率,但經常出現錯誤拒絕必要醫療服務的情況,直接影響了患者的醫療權益。
另外,社會福利系統中的 AI 應用同樣存在重大隱憂。美國補充營養協助計畫(SNAP)中有 4,200 萬人可能被 AI 系統錯誤判定為詐欺案件,社保殘障福利計劃中也有 1,380 萬人面臨資格認定的風險。甚至在失業保險系統中,約 110 萬人遭遇身份驗證延遲或被錯誤指控等問題。
從食衣住行到教育都受到 AI 決策所影響
以及在住房與就業市場中,AI 的影響範圍更廣。目前有 1,630 萬低收入家庭在租屋審查過程中受到 AI 系統篩選的影響,至少 3,240 萬低薪工作者面臨 AI 招募、監控和評估的挑戰。特別值得注意的是,有 8,00 萬全職零工工作者的薪資完全由 AI 決定,這種情況可能導致薪資不平等和勞動權益受損。
最後則是教育和社會服務領域的 AI 應用問題。約有 1,325 萬低收入學童被 AI 系統標記為有潛在輟學風險,還有 72,000 名兒童在兒童福利系統中受到 AI 評估的影響,這些標籤可能對兒童的未來發展造成負面效果。
從產業到監管,建立完善的 AI 治理框架勢在必行
回歸到組織、對企業而言,產業在導入 AI 決策系統時則需採取更謹慎的態度。首要任務是建立完整的人工審核機制,確保重要決策都能得到適當的人為複審。同時,資料品質也不容忽視,必須確保訓練數據能夠充分反映社會的多樣性,避免複製或放大既有的社會偏見。
安永會計師事務所即提出,「為什麼人工智慧既是一種風險,也是一種管理風險的方法?」儘管導入 AI 有諸多好處,但它也是必須管理的重大新風險的來源。因此,辨別每個單獨的人工智慧應用程式以及使用該應用程式的每個業務部門如何做好相關的風險管理就非常重要。
與人工智慧相關的一些主要風險包括:
- 演算法偏差:機器學習演算法識別資料並將其編入預測、規則和決策中。如果這些模式反映了一些現有的偏見,那麼演算法可能會放大這種偏見,並可能產生強化既有歧視模式的結果。
- 高估人工智慧的能力:由於人工智慧系統不理解它們執行的任務,而是依賴它們的訓練數據,所以它們遠非絕對可靠。如果輸入資料有偏差、不完整或品質差,結果的可靠性可能會受到損害。
- 順序錯誤:如果存在錯誤,演算法可能無法如預期執行,並且可能會產生誤導性結果,從而產生嚴重後果。
- 網路攻擊的風險:有意竊取個人資料或公司機密資訊的駭客有大機率可能以人工智慧系統為目標。
- 法律風險與責任:目前,監管人工智慧的法規較少,但這種情況必定會改變。分析大量消費者資料的系統可能不符合現有和即將實施的資料隱私法規,特別是歐盟的一般資料保護法規。
- 聲譽風險:人工智慧系統處理大量敏感數據,並在信貸、教育、就業和醫療保健等一系列領域做出有關個人的關鍵決策。因此,任何有偏見、容易出錯、遭到駭客攻擊或用於不道德目的的系統都會為擁有該系統的組織帶來重大聲譽風險。
而對於政府監管單位而言,建立完善的 AI 治理框架勢在必行。這不僅包括制定相關法規,還需要要求企業定期提交 AI 影響評估報告,並建立跨部門的監督機制。企業則需要在導入 AI 前進行全面的影響評估,建立內部的倫理審查機制,並持續投入資源改進系統的公平性,僅有這樣,我們才可以真正最大化人工智慧所帶來的優勢。
【推薦閱讀】
◆ 提高 AI 推薦商品的命中率!OpenAI 揭點擊大增 23% 合作細節
*本文開放合作夥伴轉載,參考資料:《Techtonic Justice》、EY,首圖來源:pixabay。
(責任編輯:廖紹伶)
留言 0