面臨美國即將到來的2020總統大選,以及其他選舉中可能影響選民判斷的各種新聞事件,Facebook表示將投入超過美金1,000萬的資源,並與微軟和多個著重AI研究的學校,包括麻省理工學院、牛津大學、柏克萊大學等,合作開發「Deepfake檢測挑戰 (Deepfake Detection Challenge)」計畫,共同反制以Deepfake製作的假新聞流竄而影響民意。
「Deepfake檢測挑戰」將開發一套開源工具,提供企業、政府、媒體等組織用以檢測某影片是否已被竄改,為了讓這套開源工具能有效打擊假影片,除了開發資源之外,Facebook還聘用演員創作影片,讓研究人員能使用這些影片來測試「Deepfake檢測挑戰」的打假成效如何。
「Deepfake」是一套開源的深度學習圖像生成模型,其在GitHub上的自述為「一種利用深度學習技術識別並交換圖片、影片裡人物臉部圖像的工具」,「Deepfake」除了被用來生成假影片圖片混淆視聽之外,近日有駭客利用此工具開發出AI假語音進行詐騙。
由於「Deepfake」對於網路上訊息的真偽已造成嚴重影響,Facebook表示,能否判斷網路訊息的合法性變得至關重要,但因為目前業內並無很好的數據庫或工具去偵測影片或圖片的真偽,所以促使我們在此領域投入資源進行研究,建立一套可辨別「Deepfake」的開源工具供各界使用。
由於Facebook日前拒絕刪除美國眾議院議長南希·裴洛西(Nancy Pelosi)的假影片,於是有網友利用「Deepfake」製作出一段,看起來由Facebook執行長馬克·祖克伯(Mark Zuckerberg)針對大數據議題發表演講,但事實上是經過移花接木的假影片,來突顯社群網路訊息容易受科技技術竄改操控的嚴重性,來挑戰Facebook對假影片的態度。
責任編輯:蕭閔云