台灣清華大學資工系郭柏志助理教授,與美國頂大合作發現,被多數人視為公平的AI人工智慧也會種族歧視,且可能會影響醫療上的準確率,甚至涉及醫療倫理問題!這項研究成果最近也登上了國際頂尖期刊《刺胳針數位健康》(Lancet Digital Health),並吸引外媒報導。
美國食品藥物管理局(FDA)目前已核准醫院採用人工智慧輔助判讀X光片及電腦斷層掃描等醫學影像,人工智慧的深度學習系統可幫助電腦針對大量資料自我訓練,並發展出辨識模型。
根據清華大學9日發布的新聞稿表示,郭柏志助理教授與麻省理工學院、哈佛大學等大學,跨國合作研究分析超過20萬位病患的胸部、頸椎、手部X光及胸部電腦斷層掃描。
結果發現,當採用先進的AI深度學習演算法來判讀X光片及電腦斷層掃描時,電腦竟可以從這些醫學影像分辨出患者是黑人、白人或亞洲人,並影響判斷的準確率。
郭柏志指出,研究發現白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,但黑人的誤判率卻高達28%,相差超過10個百分點。而醫學影像的誤判也會進一步影響急診、醫療給付等資源分配。
研究團隊成員對此直言「恐怖」,郭柏志表示,我們原來以為人類才會歧視,電腦應該是最公平的,但沒想到電腦也默默地提取了人類沒教它的資訊,包括人種及性別等。他強調「如何去除歧視,讓各族群的醫學影像判讀都有一致的準確率,是我們下一階段要努力的目標。」