image source:OpenAI
文/閻芝霖
AI看到的物體不一定是正確的?人工智慧研究組織「OpenAI」研究人員近日發現,手寫的「字卡」、「符號」會影響AI判別物體,覆蓋掉AI本來辨識正確的物體,產生誤差,讓一顆真正的蘋果也能成為3C用品「iPod」!
image source:OpenAI
根據外媒《THE VERGE》報導,「OpenAI」用一顆青蘋果做測試,辨識準確率達85.6%,不過貼上手寫的字卡後,AI卻僅偵測到字卡上的內容,並將覆蓋本來的辨識到的物體。
研究人員將青蘋果貼上寫上「iPod」的字卡,辨識正確率竟高達99.7%,另外,研究人員也用電鋸測試,在電鋸的圖片上放上「$」符號,最終系統將他們辨識為「小豬存錢罐(撲滿)」但準確率70.1%不及原本圖片的91.1%,這種研究結果也被研究人員取名為「印刷攻擊」(typographic attacks),此類攻擊可以使軟體的視覺系統欺騙,得出完全不同的結果。
image source:OpenAI
研究人員舉例,電動車特斯拉(Tesla)的自動駕駛AI若被道路上某些被竄改的標誌欺騙,進而做出錯誤的駕駛行為,「這種攻擊對於從醫學到軍事的各種AI應用都是嚴重的威脅,且只需要貼個標籤就完成了」。
不過,目前這套「CLIP」系統還屬於實驗階段,沒有應用在任何的產品中,因此不會被廣泛使用造成風險,由於OpenAI對「CLIP」這套實驗系統採取放任的策略,在沒有嚴格控管、過濾的狀況下搜集網高達4億張圖文,作為辨別物品內容的基礎,雖然可能會像人類一樣將這些知識內化,但無法清楚分別「青蘋果」、「寫著iPod紙條」的差別,研究人員認為這是一種「抽象化謬誤」(fallacy of abstraction)。
image source:OpenAI
【延伸閱讀】
工程師有福了!主打「程式碼」交友軟體VSinder 不靠外貌也能找到另一半
IG新功能「小帳全現形」!網怕爆「不能偷追蹤別人了」 一招教你關閉設定
小編精選新聞不錯過,馬上點選加入
【網路溫度計telegram】
telegram台灣版 https://t.me/dailyviewtw
telegram香港版 https://t.me/dailyviewhk
有想看的排名主題?請不要猶豫告訴我們吧
提供題目►https://pse.is/JW2G2