請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

電腦比人更中立?招聘系統重男輕女、非裔族群不貸款…歐美國家發現:AI也會有歧視

今周刊

更新於 2023年08月24日02:48 • 發布於 2023年08月24日02:48

作者 : 劉芮菁

圖片 : shutterstock

去年底ChatGPT爆紅後,「生成式人工智慧」的浪潮席捲全球。但在享受AI帶來的便利與經濟效益之虞,社會裡既存的偏見與歧視可能也受到AI推波助瀾。對此,歐美社會紛紛出現「監管AI」的呼聲,盼透過立法提升AI演算法的透明度與問責機制。

AI早已滲透人類生活的各個角落。滑手機逛社交媒體,動態牆上是AI演算法推播的內容;購物有問題撥打客服電話,接聽的可能是AI聊天機器人。更不用說許多企業已導入AI技術來招聘員工、識別客戶身分。某種程度上,AI決定了我們能否得到工作、銀行貸款,甚至保險理賠金。

美國Amazon用AI篩選履歷 竟出現「重男輕女」現象

許多人或許認為,科技工具是中立的,交由AI決定最有效率、也最公平。然而,當訓練AI的數據資料本身就存在偏見,AI就可能做出歧視性決策。早在2018年,美國電商巨頭Amazon就發現,他們實驗性的AI招聘系統出現「重男輕女」現象。

當時,Amazon的機器學習團隊開發一個自動化系統,希望幫人資部門初步篩選履歷。但由於公司過去的應徵者以男性居多,當實驗團隊以過去應徵者作為資料庫來「訓練」AI,卻讓AI認為男性應徵者比較適合,並為「女子大學」畢業的人打上較低的分數。

儘管Amazon宣稱沒有正式使用過這個AI招聘系統,並解散了研發團隊,但此案例證實了AI科技可能存在偏見。英國艾塞克斯大學商學院教授凱蘭(Elisabeth Kelan)指出,這不僅是技術上的問題,更是因為訓練AI的「資料庫」,某種程度上反映了社會結構。

Amazon的應徵者資料庫以男性居多,反映的是科技業由男性主導的現象。但如果透過此AI系統篩選應徵者,恐將強化科技業的性別不平等問題。

德國記者實測AI招聘系統 發現外貌會影響性格評估結果

事實上,在招聘流程引入AI已經是許多企業的日常。儘管研發團隊宣稱,用AI篩選應徵者可以排除人資的個人喜好,讓招聘過程更客觀。但2021年,德國巴伐利亞廣播公司(BR)記者對慕尼黑一家新創公司「Retorio」研發的人臉辨識系統進行測試,發現評分結果會受面試者外貌影響。

例如,同一位女性錄製一模一樣的自我介紹影片,當她戴眼鏡或戴頭巾,皆得到完全不同的性格評分。甚至,面試者背後有畫作或書架、面試影片本身的明暗度,也會影響AI對面試者個性的評估。當畫面較暗時,面試者被AI視為不太認真和外向的人。

對於BR記者的測試,Retorio公司回應,將面試者的穿著打扮納入考量,是正常工作面試都會發生的。而面試影片的品質在應徵工作本來就很重要,他們的系統可讓應徵者反覆錄製影片,並選出最滿意的版本。

Retorio強調,AI系統評估的準確率高達90%。

銀行用AI演算法決定貸款與否 「族裔」可能成為隱而未顯的指標

事實上,歐美科技業界一直存在對AI強化歧視的擔憂。今年6月,推特前「機器學習、透明度與問責中心(META)」主任喬杜里(Rumman Chowdhury)就在阿姆斯特丹的Money 20/20會議上表示,貸款是AI對弱勢族群出現系統性偏見的典型案例。

「芝加哥曾有拒絕貸款給黑人社區的歷史。」喬杜里說,在1930年代,芝加哥的銀行業者會以社區的族裔人口對個人信用做評分。他們在地圖上用紅線標示出黑人社區,並列入拒絕貸款名單。

時至今日,銀行改用AI演算法為客戶的信用做評分,但喬杜里擔憂,「族裔」很可能成為演算法採用、但隱而未顯的指標之一,加深不平等的現況。

AI演算法不透明 要證明「AI有歧視」有困難

但是,要證明AI系統存在歧視仍有困難。蘋果和高盛集團曾被控告對女性提供較低的Apple Card額度,最後卻因證據不足,被紐約州金融服務部駁回。

歐洲非營利組織「反種族主義網絡」主任斯莫特(Kim Smouter)說,即使有個人認為受到歧視,但因為不知道AI是如何做分析、有哪些輔助機制,系統的整體不透明,讓證明AI存在歧視很困難。

「人們對AI系統如何運作知之甚少,這些個案很可能只是整個系統的冰山一角。」斯莫特說道。

但不可否認,AI出現偏見無疑是個問題。例如在COVID-19疫情期間,美國學校用來監督學生進行線上考試的AI影像分析與人臉辨識功能,就被批評對身障學生有錯誤標記。有神經疾病而考試時會坐立不安、有視力障礙導致眼球不規則運動的學生,都可能被AI列入「可疑行為」。

開發者樂觀期待技術解決 倫理專家呼籲立法監管

對於AI的偏誤問題,OpenAI創辦人奧特曼(Sam Altman)接受外媒採訪時表示,他認為這個問題可以隨著技術提升而被解決,「我樂觀認為,我們可以進入這樣的世界──這些AI模型可以成為減少、而不是強化社會偏見的力量。」

然而,樂觀期待對許多倫理專家來說可能還不夠。分散式AI研究所(Distributed AI Research Institute)創辦人蓋布魯(Timnit Gebru)作為對AI偏見議題有深度研究的資訊科學家。她認為,這些科技公司如果沒有受到外在壓力,不會去自我約束。

「我們需要監管機制,也需要比利潤更好的動機。」蓋布魯表示。

斯莫特也認為,AI演算法需要受到社會監督與規範。他強調:「我們呼籲提高演算法及其運作透明度和問責機制,建立獨立的申訴管道,並能讓不是AI專家的公民組成委員會,定時審核AI系統並發布報告。」

更多今周刊文章
下周開學沒老師!這學校9招竟找嘸人,連北市也缺…「師資斷炊」窘境原來是2問題造成的
AI之王就是狂!輝達上季營收飆新高、財測超預期,台廠供應鏈跟著嗨…一文看業績有多讚

加入今周刊LINE好友,掌握更多資訊!

更多科技相關文章

01

高階晶片25%國安關稅上路 白宮暗示還有進一步動作

路透社
02

馬斯克xAI陷全球監管風暴 Grok生成深偽不雅內容

路透社
03

台積電獲利超預期創新高 預告建設更多美國廠

路透社
04

Netflix簽全球協議 獨家串流索尼影業院線下檔電影

路透社
05

澳洲禁令上路滿1個月 社媒停用470萬青少年帳號

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 2

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...