請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

鄉民

AI偷學人類沒教的資訊!清大與跨國團隊研究 揭AI會種族歧視、擔憂醫學倫理

太報

更新於 2022年06月10日09:58 • 發布於 2022年06月10日09:58 • 陳毅龍

台灣清華大學資工系郭柏志助理教授,與美國頂大合作發現,被多數人視為公平的AI人工智慧也會種族歧視,且可能會影響醫療上的準確率,甚至涉及醫療倫理問題!這項研究成果最近也登上了國際頂尖期刊《刺胳針數位健康》(Lancet Digital Health),並吸引外媒報導。

清華資工系郭柏志助理教授(中)帶領學生陳立晴(左)、王瑞恩(右)參與AI也會種族歧視的跨國研究。(圖片來源/清華大學提供)
清華資工系郭柏志助理教授(中)帶領學生陳立晴(左)、王瑞恩(右)參與AI也會種族歧視的跨國研究。(圖片來源/清華大學提供)

美國食品藥物管理局(FDA)目前已核准醫院採用人工智慧輔助判讀X光片及電腦斷層掃描等醫學影像,人工智慧的深度學習系統可幫助電腦針對大量資料自我訓練,並發展出辨識模型。

根據清華大學9日發布的新聞稿表示,郭柏志助理教授與麻省理工學院、哈佛大學等大學,跨國合作研究分析超過20萬位病患的胸部、頸椎、手部X光及胸部電腦斷層掃描。

結果發現,當採用先進的AI深度學習演算法來判讀X光片及電腦斷層掃描時,電腦竟可以從這些醫學影像分辨出患者是黑人、白人或亞洲人,並影響判斷的準確率。

郭柏志指出,研究發現白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,但黑人的誤判率卻高達28%,相差超過10個百分點。而醫學影像的誤判也會進一步影響急診、醫療給付等資源分配。

研究團隊成員對此直言「恐怖」,郭柏志表示,我們原來以為人類才會歧視,電腦應該是最公平的,但沒想到電腦也默默地提取了人類沒教它的資訊,包括人種及性別等。他強調「如何去除歧視,讓各族群的醫學影像判讀都有一致的準確率,是我們下一階段要努力的目標。」

更多太報報導

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0