請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

國際

「深偽」輕鬆破人臉辨識 陸專家籲技術升級

TVBS

更新於 2022年06月11日06:49 • 發布於 2022年06月11日06:49 • 莊志偉 林隆士
圖/翻攝自微博
圖/翻攝自微博

「深度偽造」技術近幾年越來越成熟,但有大陸專家警告,越來越多不法份子用深偽技術攻破人臉辨識系統,甚至造成法庭裡的影音證據失去效力,呼籲現有的人臉辨識安全系統,也需要技術升級換代。

圖/翻攝自微博
圖/翻攝自微博

技術人員:「您現在看到的這段視頻(影音),就是利用深度合成中的表情操縱的手法,生成的一段偽造的視頻。」

只要被害人一張照片,就可以讓她隨著你的指令,點頭、搖頭甚至說話,大陸技人員說,深度偽造就是靠這一招,攻破你以為很安全的手機或各種臉部辨識系統

技術人員:「(我們可以看一下完整的攻擊過程嗎),我們可以生成系統指定的這些,張嘴啊點頭搖頭之類的指定動作,最終我們就可以冒充這個人,完成了人臉驗證的環節。」

根據大陸清華大學的研究,2021年出現在國際影音平台上的深度偽造影片,比2017年增長了10倍以上,合法的用途是製作搞笑影片,或是用來拍廣告,虛擬課堂、虛擬教師等等,問題是,大陸警方也發現越來越多案件,是用深偽技術騙過平台人臉識別機制,直接盜取存款,或盜用他人手機號,進行網路詐騙,

復旦大學教授凌力:「原來視頻照片錄音它可以做為司法證據,但是由於這樣的AI深度合成技術,證據的可信度可能就受到質疑。」

隨著深度偽造技術越來越強大,大陸專家表示,人臉辨識技術也得加強,例如加進3D立體檢測、或是紅外線體溫感測,才能區分出活體真人跟偽造影片之間的差別,避免再被攻破。

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0