請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

國內

AI假影片四大情境 資安院教三招識別

Yahoo奇摩即時新聞

更新於 20小時前 • 發布於 20小時前 • Yahoo奇摩新聞

隨著人工智慧(AI)技術快速發展,網路上流傳愈來愈多假影片。資安院研究員戴毓辰指出,AI假影片可分為名人換臉色情片、偽冒名人詐騙、AI虛擬化身內容農場及搬運Sora影片等四大情境,民眾可透過留意AI生成標註、以圖搜圖、影片情境合理性等方式初步檢核。

AI生成影片日益增加,不僅常被用於偽冒名人詐騙,近期也出現虛擬醫師散布不實訊息。戴毓辰直言,「只要有利可圖的地方,就會有AI假影片」,AI技術已能進行換臉、嘴唇同步,也可生成全由AI產製的影片,如「一張照片就能開講」,僅需一張人物照片與一段聲音,AI就能自動算出說話時應有的肌肉抽動等,生成一段人物說話的影片。

戴毓辰分析,依團隊觀察,目前常見的AI假影片情境可分為四大類,第一類為最早出現的名人換臉色情片,也就是利用AI深度偽造技術(Deepfake),將公眾人物的臉部影像移花接木,合成至其他影片。

第二類為偽冒名人詐騙,戴毓辰指出,不法人士常冒用財經專家、權威醫師等影像,利用AI做精細的「對嘴」處理,假冒成本人推薦投資或販售藥品,誘使民眾加入投資群組或購買產品。

第三類為AI虛擬化身(AI Avatar)內容農場,如YouTube頻道「陳志明醫師」,經查現實中根本不存在此人。戴毓辰說,傳統內容農場以大量文章為主,現在改用AI自動化工廠,利用AI生成不存在的虛擬分身,扮演主持人或專家。由於只要有文案就能自動化產出影片,發布頻率極高,內容多涉及健康、理財或長者福利等議題。

戴毓辰解析,AI生成的虛擬化身影片長度僅短短幾秒,經由無縫循環播放,可消除影片截斷感,構成數分鐘影片,「虛擬化身看似動作自然,其實某些手勢每隔一段時間就會重複出現」。

第四類為搬運Sora影片,戴毓辰指出,社群平台上常見內容誇大的短影音,如切貓咪蛋糕,貓咪嚇到跳起來,這些多數搬運自專門生成AI影片的創作應用程式Sora。他說,這些影片原本帶有浮水印,但搬運者常以遮蔽或裁切方式去除,再發布至各大社群平台。民眾可留意影片角落是否模糊、物品上字體是否正確等,初判影片是否為AI生成。

面對愈來愈逼真的AI假影片,戴毓辰建議民眾以三種方式判斷,首先是留意AI生成標註,目前多個社群平台已要求創作者標記AI生成內容,如YouTube引入AI內容揭露標籤,民眾點擊影片說明「更多內容」,可看到「變造或合成的內容」、「聲音或影像經過大幅編輯或為數位生成」等提醒。

在環境及系統層面,可留意語音與字幕是否一致、光線或陰影是否合理、人物綠光反射、文字錯誤、空間構造錯誤、不合理的運鏡、低解析度壓縮痕跡、出現匪夷所思的物品、畫面是否不自然變換或延遲、快速移動的破綻、影子動態延遲等。

戴毓辰表示,當AI技術愈來愈進步,可觀察的破綻勢必愈來愈少,不過,民眾多一分懷疑,養成檢視AI生成標註、以圖搜圖、影片情境合理性等查核習慣,就能大幅降低受騙風險。

查看原始文章

更多國內相關文章

01

宜蘭一早火警!居民目睹濃煙竄天 驚呼:還有爆炸聲

三立新聞網
02

星宇航空台中飛神戶班機「重落地」 民航局:組員停飛調查

CTWANT
03

獨家/26歲模特兒離奇亡生前遭襪子塞嘴、窗簾綁手

EBC 東森新聞
04

竹市豪宅建案電梯井工程意外 印尼移工7樓墜落B1無生命跡象

中廣新聞網
05

台中驚見人體頭骨!喚起資深警塵封記憶 竟是10年前產後失蹤婦

壹蘋新聞網
06

快訊/新北知名地標驚傳墜樓 男子自18樓墜落送醫不治

鏡報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...