請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

AI生成偽專家 網路訊息慎防詐騙

大愛新聞

發布於 02月01日04:09

人工智慧相當夯,AI生成影像越來越普及,也越來越真假難辨了。雖然說,很多影音社群平台,都有內建機制警告用戶,偏偏還是會有一些陷阱,可以百分之百辨識AI生成的影像,甚至連醫師提供的醫療訊息也,專家建議,可以留意影片當中人物的眨眼頻率、如果眼睛不會,沒有完全閉合,肯定是假的。還有,仔細觀察人物的手部,AI在處理複雜細節的時候,例如手指,常會出現錯誤,可能看到手指關節扭曲、數量不對、邊緣模糊等變形狀況。甚至還包含,看看影片中的光源,跟人的陰影,有沒有符合物理邏輯。

「大家好我是洪瑞澧醫師,今天要來跟大家介紹的是,成為醫生的幾個關鍵步驟。」

大愛電視記者 洪瑞澧:「但其實我是大愛電視的記者,不認識我的人,還可能以為我是專業醫師。」

國立台灣科技大學資管系教授 查士朝:「第一個就是所謂的變臉,或者是說影像生成的技術,第二個來講,因為我們有時候會聽到說,那個人的聲音,其實會 做得不錯或什麼之類的,就是跟那個人講話的聲音是一樣, 那這個叫做 聲音克隆技術。」

「感覺自己又回到年輕時候的視力,看什麼都清清楚楚。」

像這支透過更精密的AI計算生成,影片裡的"醫師"幾乎毫無破綻,從診間、到語調像真的在衛教、嘴型也能對上,讓人很容易當成真的專業建議。但問題就在這裡,當它看起來越真,我們到底該怎麼判斷?民眾|鄭小姐:「如果是太過於,就是太AI的感覺的話,就直接報警啊。」

民眾 傅小姐:「要得到具體的資訊的話,我覺得我會去找比較可靠,有信用的資料來源,不會去依靠這種AI,或者是短片形式的資訊來源,所以如果看到這類的影片,我覺得就滑走 就不要看。」

國立台灣科技大學資管系教授 查士朝:「你如果是用生成的話 當然他們說,你看眼睛的瞳孔那個地方,是不是對應的東西對不對,可能目前來講 是這個,可能還是有一些破綻,我覺得最好的方式,就是第一個是 找到信任的來源, 第二個來講是 未來來講,可能未來會形成一些規範, 就是說只要是你產生影像的時候, 你可能要加上一些來源的資訊, 那避免竄改的資訊(流出)。」

網路資訊百百種,仿冒專家層出不窮;而詐騙集團也會利用AI變成假的投資專家騙取民眾,一旦誤信,就可能被話術誘導,甚至遭到詐財。內政部刑事局預防科偵查員 陳品卉:「如果民眾遇到類似這種可疑的帳戶,甚至你們已經加了LINE 有聊天,那當你察覺到有可疑的話,其實第一步就是要提醒大家,就是馬上終止跟他對話,因為其實你跟他互動得越多,他就越有可能精準地 就是詐騙到你,然後再來就是 千萬也是,不能把自己的個資傳給他。」

大愛電視記者 洪瑞澧「堅持不懈,你也能成為優秀醫師。」

AI讓看起來很專業變得更容易,不過民眾也應該要把判斷標準從"像不像"拉回"可不可信";先查來源、做交叉比對,別急著繼續看下去,"查證",才是最關鍵的那一步。

生活話題:新制懶人包

多項攸關民生經濟、勞工權益...等新制上路

生活圖解懶人包

圖解旅遊
日本入境將設電子審查 未通過會遭拒絕登機

LINE TODAY

圖解美食
日本和牛美味揭秘 吃懂頂級油花前世今生

LINE TODAY

圖解健康
對抗白髮大作戰 靠剪靠染靠吃 不能拔

LINE TODAY

圖解旅遊
戰火害機場癱瘓 旅客滯留 保障旅客權益攻略

LINE TODAY
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...