人際

DEI 快訊|同篇貼文下,不同人會看到不同的留言?AI 正在強化你的無意識偏見!

女人迷Womany
更新於 07月04日12:30 • 發布於 07月05日12:30 • Womany Ting

IG 同則貼文下,不同人會看到不同的留言?

AI 應用不當,會加大無意識偏見!

在數位時代,人工智慧(AI)已深入我們生活的各個層面。然而,AI 應用不當可能會加劇無意識偏見,特別是在性別議題上。

一個引人深思的例子來自社交媒體平台 Instagram,一位內容創作者 thekingzletter 分享了一個有趣的觀察:在一則關於「女生抱怨男友遲到」的影片下,男性和女性用戶看到的熱門評論完全不同。

廣告(請繼續閱讀本文)

女性用戶看到的評論多是支持影片中的女生,如:

  • 「他不尊重你的時間,分手吧!」
  • 「他有跟妳說他會晚到嗎?沒有的話放生吧!」
  • 「甩了他吧」
  • 「我不喜歡他」
  • 「他根本不尊重女生的時間!」

圖片|@thekingzletter

廣告(請繼續閱讀本文)

男性用戶看到的評論則傾向支持男友,例如:

  • 「別整天等他,自己找點事做吧。」
  • 「抱歉喔,我就是那個一起打高爾夫的朋友。」
  • 「放過他吧,他正開心的勒。」

圖片|@thekingzletter

為什麼會看到不一樣的留言?AI 的演算法造成什麼現象?

該篇貼文下,有位機器學習研究者分享造成這個現象的原因為協同過濾(collaborative filtering),目的是最大化用戶的螢幕使用時間。

AI 演算法根據每位用戶的使用習慣,顯示最可能吸引他們繼續瀏覽的評論。在社交軟體環境中,協同過濾可能導致用戶只看到與自己觀點相似的評論。這種機制雖然提高了用戶參與度,卻也可能強化既有觀點,限制多元視角的接觸。

(同場加映:AI 會取代人類做決策嗎?拋開無意識偏見、擁抱多元共融,巧用 ChatGPT 人類一定要有的能力

透過此案例的留言現象,我們也發現 3 點 AI 演算法會造成的現象如下:

  • 同溫層效應(Echo Chamber Effect):用戶可能只接收到符合自己既有觀點的訊息,減少接觸多元觀點的機會,可能加劇社會分裂。
  • 固有偏誤(inherent bias):如果 AI 的資料庫存在性別或文化偏見,這些偏見可能被無意識地強化和傳播。
  • 社會對立:長期的協同過濾與訊息隔離,可能導致不同群體之間的理解和溝通障礙,增加社會對立情緒。

圖片|Canva

還有哪些 AI 應用,有顯示出性別偏見的案例?

這個社交軟體的例子只是冰山一角。近年來,AI 在各個領域的應用都顯示出性別偏見的問題。

一、圖像生成系統中的性別偏見

根據 Nature 的報導,AI 圖像生成器(如 Midjourney)在生成專業人員的圖像時,對性別存在偏見。例如,當被要求生成某些「專業」的人物圖像時,系統往往會生成男性形象,特別是在年齡較大的專業人員中,這強化了性別偏見。

二、醫療診斷系統中的性別偏見

根據 IBM - United States 的報導,醫療診斷系統在對不同種族和性別的病患進行診斷時準確性不同。例如,對於黑人的診斷準確性低於白人,這是因為系統訓練數據中女性和少數族裔數據不足。

三、招聘中的性別偏見

根據 IBM - United StatesWorld Economic Forum 的報導,許多應用追蹤系統(如亞馬遜的招聘系統)使用自然語言處理演算法來篩選簡歷,但這些演算法往往會根據某些特定的詞語(如 “executed 執行”或 “captured 捕捉” )進行偏見篩選,這些詞語更常出現在男性簡歷中,導致女性應徵者受到不公平對待

(同場加映:當 AI 成為招募人才、維護校安趨勢:人工智慧是多元共融推手,還是有偏見的歧視機器人?

四、虛擬助理中的性別偏見

根據 IPI Global Observatory 的描述,人工智慧工具女性化的趨勢模仿並強化了社會的結構等級和刻板印象,「男性」機器人被認為更適合安全相關工作,而當日本在 2015 年推出第一家配備機器人接待員的飯店時,大多數機器人都是「女性」。

亞馬遜的 Alexa、微軟的 Cortana 和蘋果的 Siri 等「家庭虛擬助理」都優先被賦予了女性聲音。

圖片|Canva

面對這些挑戰,我們如何有意識行動?

個人層面

  • 定期進行「算法清理」:定期檢查並調整社交軟體和搜索引擎的設置,如清理瀏覽歷史、重置推薦算法,或使用隱私瀏覽模式,以減少同溫層效應。
  • 參與 DEI 與無意識偏見相關培訓:主動參加或組織有關無意識偏見、共融領導力、文化敏感度的培訓課程。這些課程可以幫助我們認識到自己可能存在的盲點,並學習如何更好地實踐 DEI 原則。

(同場加映:梅琳達蓋茲、黃仁勳都景仰的 AI 科學家:李飛飛,讓 AI 包納多元族群

組織層面

  • 建立多元共融的 AI 治理架構與組建多元化的 AI 開發團隊,確保不同背景的人才參與。
  • 制定明確的 AI 使用 DEI 指導原則,為員工提無意識偏見培訓,提高對潛在偏見的認識。
  • 設立 AI 倫理委員會或審核小組,實施持續的 AI 系統 DEI 評估,分析對不同群體的影響,及時調整系統以確保公平性。

通過上訴行動策略,我們可以系統性地應對 AI 強化無意識偏見的挑戰,創造更公平、共融的環境,同時提高 AI 系統的可靠性和社會接受度。

創造一個多元共融的世界,每個你都很重要

延伸閱讀:

應對缺工挑戰:日本豐田 Toyota 打破年齡歧視、美國 UPS 支持夜班制家庭照顧者,創造共融職場|DEI 快訊

應對缺工挑戰:日本豐田 Toyota 打破年齡歧視、美國 UPS 支持夜班制家庭照顧者,創造共融職場|DEI 快訊

加入女人迷 Line@,好內容不再漏接

查看原始文章