請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

國內

【易誤解】拿手機對著你?AI工具假冒他人的詐騙?勿過度解讀!資安專家與警方詳解

MyGoPen

發布於 11月21日13:51 • MyGoPen

網傳「身邊每一個拿手機對著你的人」、「用來詐騙賺錢」的訊息和影片,短影片示範只需要 5 秒的影音素材,就能以 AI 技術快速生成假冒他人的假影片來進行詐騙。MyGoPen 詢問刑事局和資安專家,警方表示,影片中展示的 AI 技術確實是可以達到的,但目前詐騙集團主要是將深偽用在假冒名人上,台灣尚無此類應用;資安專家劉彥伯則指出,這類強調「AI 科技帶來威脅」的影片,忽略了目前 AI 技術上的限制,傳言影片中展示的快速臉部建模,雖然可行,但其實對手機設備、外在環境等相關要求非常高。總結來說,民眾對深偽技術的詐騙提高警覺是好事,但不需過度擔心,警方也建議民眾可以和親友建立通關密語,在提到和財務有關的問題時,以通關密語測試螢幕另一邊的人到底是真是假。

AI影音工具假冒的詐騙手法?
原始謠傳版本:

這世界真的很可怕及完蛋了,科技越好不用在正途上,用來詐騙賺錢好可惡的行爲哩!真的要好好的防騙哩!對不認識的人要查言觀色,以免被騙喔!防人之心不可無!

主要流傳這段影片

並在社群平台流傳:

網路上還有許多一模一樣的影片腳本。

查證解釋:

網傳影片中描述的狀況是否為真?
(一)MyGoPen 實際詢問內政部警政署刑事局與資安專家劉彥伯,警方表示,網傳影片中的狀況以目前的 AI 技術確實能做到,不過此類案件都是發生在國外,先前了解到國外有這樣的狀況時,台灣就已經開始在做相關宣導。
刑事警察局官方 YouTube 在 2024 年 3 月 29 日就推出一則「寶貝女兒是真是假?」的宣導影片,內容是分享國外利用 Deepfake 技術進行犯罪的情境,演示深偽技術可以複製受害人親朋好友的影像與聲音以進行勒索、要求轉帳。
在資安方面,警方建議,親友間可先建立好通關密語,遇到親友談到帳戶,務必以事先約定好的通關密語或近期親友的共同活動進行測試;也提醒民眾保護自己的個人資訊,個人Facebook、Instagram、Line 等帳戶被盜就容易遇上深偽詐欺。
(二)劉彥伯表示,從 AI 話題延燒後,中國這類「擺拍博眼球」的虛假短片越來越多,其實中國當局已經對此提出了警示,但由於影片數量眾多所以還是跨海來到台灣。
這類強調「AI 科技帶來威脅」的影片,其實都有共同特徵,就是誇大 AI 的能力,卻完全忽略目前 AI 技術上的限制
例如目前要用人工智慧去生成一部幾可亂真的影片,其實需要仰賴大量的電腦算力,無法單純透過手機運算,即使透過雲端服務也需要非常長的時間。
另外影片中有展示到透過手機做快速臉部建模,雖然可行,但其實對手機設備、外在環境等相關要求非常高。而影片中的環境光相對微弱,所以並無法像展示那樣容易,而建模的好壞更會牽動整體臉部上的連動效果。
劉彥伯表示,綜合以上觀點,我們更可以去推論上述影片中的效果更像是拍了兩部影片,再透過剪接假裝是 AI 產出的前後影片資訊安全很重要,我們不能忽略 AI 新科技帶來的新威脅,但也提醒對於這樣的影片,不應該過度解讀自己嚇自己
目前台灣 AI 影音的詐騙類型
警方指出,目前詐騙集團主要將深偽技術用在假冒名人,因為名人的影像、聲音等資料在網路上容易取得,通常會應用在投資詐騙上,比如以深偽技術假冒財經專家、知名企業,製作成假影片後投放廣告,引導民眾加入封閉式的通訊軟體。
待民眾加入 LINE、Telegram 等群組後,詐騙集團會每天固定時間提供假造的教學影音,以此包裝其專業度,藉此取信被害人,再誘使被害人加入詐騙投資 APP 平臺,讓被害人活在深偽包圍的網路環境。
至於傳言影片中以深偽技術假冒素人的方式,警方表示這不太會是集團犯罪的手法,一來是影像、聲音等資料不像名人那麼容易取得,二來是採取這種方式的犯人通常是被害者親近的人,不難排查
但國外確實存在這樣的個案,如果被鎖定目標、觀察已久,且犯人熟知被害人身邊的親友狀況,未來台灣的確也可能發生,民眾除了提升警覺心之外,也建議可先和親友建立好通關密語。

資料來源:
CIB刑事警察局 YouTube - AI詐騙-月子篇
內政部警政署刑事局 - 「寶貝女兒是真是假」刑事局推出預防深偽詐騙宣導影片
單位諮詢:內政部警政署刑事局
專家諮詢:資安專家 - 劉彥伯

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0

留言 0

沒有留言。