AI生成偽專家 網路訊息慎防詐騙
人工智慧相當夯,AI生成影像越來越普及,也越來越真假難辨了。雖然說,很多影音社群平台,都有內建機制警告用戶,偏偏還是會有一些陷阱,可以百分之百辨識AI生成的影像,甚至連醫師提供的醫療訊息也,專家建議,可以留意影片當中人物的眨眼頻率、如果眼睛不會,沒有完全閉合,肯定是假的。還有,仔細觀察人物的手部,AI在處理複雜細節的時候,例如手指,常會出現錯誤,可能看到手指關節扭曲、數量不對、邊緣模糊等變形狀況。甚至還包含,看看影片中的光源,跟人的陰影,有沒有符合物理邏輯。
「大家好我是洪瑞澧醫師,今天要來跟大家介紹的是,成為醫生的幾個關鍵步驟。」
大愛電視記者 洪瑞澧:「但其實我是大愛電視的記者,不認識我的人,還可能以為我是專業醫師。」
國立台灣科技大學資管系教授 查士朝:「第一個就是所謂的變臉,或者是說影像生成的技術,第二個來講,因為我們有時候會聽到說,那個人的聲音,其實會 做得不錯或什麼之類的,就是跟那個人講話的聲音是一樣, 那這個叫做 聲音克隆技術。」
「感覺自己又回到年輕時候的視力,看什麼都清清楚楚。」
像這支透過更精密的AI計算生成,影片裡的"醫師"幾乎毫無破綻,從診間、到語調像真的在衛教、嘴型也能對上,讓人很容易當成真的專業建議。但問題就在這裡,當它看起來越真,我們到底該怎麼判斷?民眾|鄭小姐:「如果是太過於,就是太AI的感覺的話,就直接報警啊。」
民眾 傅小姐:「要得到具體的資訊的話,我覺得我會去找比較可靠,有信用的資料來源,不會去依靠這種AI,或者是短片形式的資訊來源,所以如果看到這類的影片,我覺得就滑走 就不要看。」
國立台灣科技大學資管系教授 查士朝:「你如果是用生成的話 當然他們說,你看眼睛的瞳孔那個地方,是不是對應的東西對不對,可能目前來講 是這個,可能還是有一些破綻,我覺得最好的方式,就是第一個是 找到信任的來源, 第二個來講是 未來來講,可能未來會形成一些規範, 就是說只要是你產生影像的時候, 你可能要加上一些來源的資訊, 那避免竄改的資訊(流出)。」
網路資訊百百種,仿冒專家層出不窮;而詐騙集團也會利用AI變成假的投資專家騙取民眾,一旦誤信,就可能被話術誘導,甚至遭到詐財。內政部刑事局預防科偵查員 陳品卉:「如果民眾遇到類似這種可疑的帳戶,甚至你們已經加了LINE 有聊天,那當你察覺到有可疑的話,其實第一步就是要提醒大家,就是馬上終止跟他對話,因為其實你跟他互動得越多,他就越有可能精準地 就是詐騙到你,然後再來就是 千萬也是,不能把自己的個資傳給他。」
大愛電視記者 洪瑞澧「堅持不懈,你也能成為優秀醫師。」
AI讓看起來很專業變得更容易,不過民眾也應該要把判斷標準從"像不像"拉回"可不可信";先查來源、做交叉比對,別急著繼續看下去,"查證",才是最關鍵的那一步。