請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

AI演算法帶有偏見! 新研究:黑人用語較易被AI視為仇恨言論

新頭殼

更新於 2019年08月16日09:20 • 發布於 2019年08月16日09:20 • 新頭殼newtalk |戴敏琪 綜合報導
人工智慧也會有偏見?! 新研究揭AI標示仇恨言論針對黑人   圖:新頭殼資料庫

新頭殼newtalk

近幾年,社群平台對言論管控需求暴增,科技巨頭如Facebook和Youtube等,也逐步透過AI過濾不當言論。然而,近期有研究發現,使用AI反而會強化社會既有的偏見,黑人的言論更容易被標示為仇恨言論。

根據華盛頓大學 (University of Washington) 及康乃爾大學的聯合研究,非裔美國人(即黑人)所發的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。此外,使用美國黑人用語的貼文,比起一般用語更容易被標示為仇恨言論,數量多了2.2倍。

目前,AI仍難以理解人類語言背後的社會情境,無法辨別文字使用者的文化背景,以及字詞背後的意義。例如,在白人社會裡,「黑鬼」是禁忌詞,然而卻是黑人的戲謔日常用語;而異性戀使用「酷兒」詞彙可能帶有貶抑,但對同性戀者來說,卻可能是正向意涵。

兩篇論文都在計算語言學年度大會(Annual Meeting of the Association for Computational Linguistics)上發表,我們所認為客觀的演算法其實會強化偏見,並證明了AI訓練素材本身就帶有偏見。

AI訓練素材中可能帶有各式各樣的偏見,而Google、Facebook及Twitter等平台使用的內容審查工具,是否也帶有偏見,研究者之一、電腦科學程式專家Maarten Sap表示:「我們必須正視這個情況。」

查看原始文章

更多科技相關文章

01

傳輝達測試英特爾18A製程 但未繼續推進

路透社
02

【獨家】佐翼科技完成2億元Pre-A輪募資,核心產品「爬牆機器人」攻進半導體龍頭

創業小聚
03

智原孵MCU小金雞,握中國第四大市占!在紅海市場拚CP值,雅特力以高度可替代性搶客

今周刊
04

美國宣布對中國晶片加徵關稅 延至2027年6月實施

路透社
05

CNBC:輝達擬200億美元收購AI新創公司Groq

路透社
06

俄羅斯拚10年內設月球核電廠 支援探測及國際合作

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...