請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

AI學習人類偏見 電腦科學家示警

路透社

更新於 2019年11月12日16:11 • 發布於 2019年11月12日16:11
rttech0001L.jpg

(路透紐約12日電)人工智慧(AI)系統依循演算法學習數位化書籍、新聞文章等所含資訊,但科學家發現,在過程中它們也吸收了資訊隱含的偏見,有時甚至出乎開發者意料以外。

去年秋天,科技巨擘Google推出名為BERT的突破性新AI技術,目前已用於諸如Google搜尋引擎等服務。它可吸收大量數位化資訊,但其中隱含的偏見,包括存在數十、數百年之久以及新近出現的,它也一併內化,一如孩童對父母的不當行為有樣學樣。

舉例而言,BERT及類似系統傾向將資訊工程與男性聯結,且往往也輕視女性。隨著AI科技推陳出新、日益精細,且應用產品越來越廣泛,科技企業防堵AI學習人類既有偏見的壓力將日增。

不過,科學家仍在研究BERT這類通用語言模型的運作方式。新AI技術所犯錯誤常讓他們感到意外。

舉例而言,電腦科學家孟洛(Robert Munro)近日將100個英文單詞輸入BERT的資料庫,其中包括「珠寶」、「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等。結果顯示,BERT將這些字詞與男性聯結的機率高達99%,唯一例外是「媽媽」(mom)。

擁有電腦語言學博士、曾負責雲端運算平台「亞馬遜網路服務」(Amazon Web Services)自然語言和翻譯技術的孟洛指出:「這一如我們一直看到的歷史不平等。」有了BERT這項科技,孟洛擔心,偏見將會持續。

孟洛近日也在網路撰寫文章,描述他如何檢視Google和亞馬遜網路服務的雲端運算。根據他的說法,兩套系統都無法將「她的」(hers)辨識為代名詞,雖然它們可以正確判讀「他的」(his)。

Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理並解決問題。他還說,減少系統中的偏見既是Google的AI原則,也是優先事項。

亞馬遜則發表聲明指出,公司投入大量資源確保自家科技高度精確並減少偏見,方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

事實上,研究人員早就警告AI隱含偏見一事,實例包括警方和其他政府單位採用的人臉辨識系統,以及臉書(Facebook)和Google等科技業巨頭所提供的高人氣網路服務。Google照片應用程式(Google Photos app)2015年就被逮到將非裔美國人標記為「大猩猩」。孟洛博士也發現其他AI系統中對女性和有色人種的偏見。

BERT與類似系統則更為複雜,人類難以預測它們最終會有什麼樣的行為。

華盛頓大學(University of Washington)專攻電腦語言學的教授班德(Emily Bender)表示:「甚至連建立這些系統的人,都不了解它們的行為方式。」中央社(翻譯)

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0