科技

萬一,哪一天AI開始監控你我……

遠見雜誌
更新於 07月29日09:35 • 發布於 07月29日09:35 • 張瑞雄

近年來,人工智慧(AI)和相關技術的出現,改變了包括執法在內的許多領域。其中最具爭議的,是預測性警務和生物辨識監控,尤其是臉部辨識。這些技術可望提高安全性和效率,但也引發了道德和法律問題。一些民間團體聯盟正在倡導全面禁止這些技術,強調它們對邊緣化社區不成比例的影響,以及可能加劇現有的社會不平等。

由開放權利組織、老大哥觀察和警察監控網路等組織組成的聯盟認為,應徹底禁止AI驅動的預測性警務和生物識別監控,因為這些技術不成比例地針對種族、工人階級和移民社區,侵犯了他們的基本權利,包括無罪推定原則。

廣告(請繼續閱讀本文)

預測性警務使用AI演算法來分析數據,並預測犯罪可能發生的地點,或是可能實施犯罪的人,雖然這看似有效,但它往往依賴有偏見的歷史數據,導致邊緣化地區被過度目標化的惡性循環,鞏固了現有的歧視,並損害了公眾對執法的信任。

生物辨識監控,特別是臉部識別,對隱私和公民自由構成重大風險。這些系統本質上是有缺陷的,容易錯誤地識別個人,尤其是來自少數群體的人。這不僅導致錯誤逮捕,而且對言論自由和抗議產生寒蟬效應。

確保AI進步,也不該犧牲人類基本價值

廣告(請繼續閱讀本文)

目前缺乏強而有力的監管,來管理這些技術的使用,必須先有完善的立法,來確保警務中使用的任何AI系統透明度、問責制和公眾監督。此類立法應要求對AI決策進行明確的人類監督,為受影響的個人提供人工審查的解釋,並提供補救途徑。

警方還有令人不安的「保留文化」,即對應該刪除生物識別數據,也會持續保留。這包括數百萬張從未被指控犯罪的個人圖像,這種作法不僅違法,也損害了公眾的信任和隱私。

臉部辨識也威脅到公共場所的隱私和匿名概念,它在公共場所、抗議活動,甚至是學校,部署了一個持續監控的環境,個人不斷受到監視和追蹤。這可能會阻止人們行使言論自由和集會自由的權利,從而削弱民主參與。

為了解決這些問題,必須制定一個全面、透明的監管法律,來管理AI在警務中的使用。關鍵內容應包括透明度和問責制、人類審查、公眾參與、避免偏見和歧視、資料保護和高道德標準等。

禁止預測性警務和臉部辨識技術的呼籲,凸顯了重新評估AI在執法中如何使用的迫切需求。雖然這些技術提供潛在的好處,但也對公民自由、隱私和社會正義構成重大風險。執法單位應深入了解AI的問題,大眾對AI的能力和準確性也不應過度幻想,才能確保AI技術的進步,不會以犧牲人類基本價值作為代價。

本文章反映作者意見,不代表《遠見》立場

(作者為台北商大前校長、叡揚資訊數位轉型大使)

更多精采報導,歡迎加入《遠見》 Line官方帳號!

查看原始文章