請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

Google AI隱含大量偏見!專家:如同歷史至今的不平等

新頭殼

更新於 2019年11月13日03:28 • 發布於 2019年11月13日03:28 • 新頭殼newtalk |戴敏琪 綜合報導
隨著人工智慧AI應用日益普及,伴隨而來的隱憂也不容忽視。   圖:新頭殻資料照

新頭殼newtalk

近幾年,人工智慧(AI)技術已大量運用在日常生活中,但近期有科學家研究指出,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見,曾負責亞馬遜雲端運算平台技術的Robert Munro更指出:「這就如同人類一路走來看到的歷史不平等。」

Munro近日發表文章指出,他檢視Google和亞馬遜網路服務的雲端運算後發現,此2套系統可以正確將「他的」(his)辨識為代名詞,卻無法正確判讀出「她的」(hers)。

Google去年推出突破性的AI技術「BERT」系統,目前已運用在Google搜尋引擎等服務。但根據Munro近期的研究,他將100個英文單詞輸入BERT的資料庫,包括「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等,研究結果卻顯示,這些字詞與男性聯結的機率高達99%,其中唯一的例外是單詞「媽媽」(mom)。此外,BERT也傾向將資訊工程與男性聯結,且往往會輕視女性。

Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理偏見問題,並指出這是Google的原則及優先事項;亞馬遜則發表聲明指出,公司投入大量資源,以確保自家科技高度精確並減少偏見,解決方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

隨著AI科技運用日益廣泛,如何遏止AI演算法學習人類的偏見、歧視,也成為急需關注的議題。此次並非科學家首次警告AI帶有偏見,先前也曾有研究學家指出AI隱含種族歧視等。未來BERT及相關的系統將演化得更加複雜,如不及時解決AI訓練素材的偏見問題,或許該系統將會通往人類難以預測的境界。

延伸閱讀:

AI演算法帶有偏見! 新研究:黑人用語較易被AI視為仇恨言論

男性角色仍過半!270萬則YouTube廣告揭性別偏見

查看原始文章

更多科技相關文章

01

Netflix收購華納兄弟探索 派拉蒙傳再度加碼力爭

路透社
02

Anthropic控3家中企竊取模型數據 籲加強晶片管制

路透社
03

蘋果Mac mini部分產線回流美國 德州鴻海廠將啟動新生產計畫

路透社
04

封鎖槍手ChatGPT帳號卻未通報 加拿大召見OpenAI高層說明

路透社
05

路透:DeepSeekAI模型 疑偷用輝達頂級晶片

路透社
06

Bananas PropTech獲百萬美元募資!591創辦人、台科電入列,加速AI租賃平台布局

創業小聚
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...