請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

Google AI隱含大量偏見!專家:如同歷史至今的不平等

新頭殼

更新於 2019年11月13日03:28 • 發布於 2019年11月13日03:28 • 新頭殼newtalk |戴敏琪 綜合報導
隨著人工智慧AI應用日益普及,伴隨而來的隱憂也不容忽視。   圖:新頭殻資料照
隨著人工智慧AI應用日益普及,伴隨而來的隱憂也不容忽視。   圖:新頭殻資料照

新頭殼newtalk

近幾年,人工智慧(AI)技術已大量運用在日常生活中,但近期有科學家研究指出,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見,曾負責亞馬遜雲端運算平台技術的Robert Munro更指出:「這就如同人類一路走來看到的歷史不平等。」

Munro近日發表文章指出,他檢視Google和亞馬遜網路服務的雲端運算後發現,此2套系統可以正確將「他的」(his)辨識為代名詞,卻無法正確判讀出「她的」(hers)。

Google去年推出突破性的AI技術「BERT」系統,目前已運用在Google搜尋引擎等服務。但根據Munro近期的研究,他將100個英文單詞輸入BERT的資料庫,包括「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等,研究結果卻顯示,這些字詞與男性聯結的機率高達99%,其中唯一的例外是單詞「媽媽」(mom)。此外,BERT也傾向將資訊工程與男性聯結,且往往會輕視女性。

Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理偏見問題,並指出這是Google的原則及優先事項;亞馬遜則發表聲明指出,公司投入大量資源,以確保自家科技高度精確並減少偏見,解決方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

隨著AI科技運用日益廣泛,如何遏止AI演算法學習人類的偏見、歧視,也成為急需關注的議題。此次並非科學家首次警告AI帶有偏見,先前也曾有研究學家指出AI隱含種族歧視等。未來BERT及相關的系統將演化得更加複雜,如不及時解決AI訓練素材的偏見問題,或許該系統將會通往人類難以預測的境界。

延伸閱讀:

AI演算法帶有偏見! 新研究:黑人用語較易被AI視為仇恨言論

男性角色仍過半!270萬則YouTube廣告揭性別偏見

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0