科技

Reality Defender:AI世代的「數位偵探」,成立半年獲5億元募資

創業小聚
更新於 05月27日06:14 • 發布於 05月28日00:06 • 邱楷涵

Deepfake詐騙事件近年來急遽增加,根據Sumsub的報告,從2022年到2023年,全球的Deepfake詐騙事件增加了10倍。除了台灣在大選期間受到Deepfake的假資訊影響,美國、印尼、巴基斯坦等國在大選期間同樣也有類似的情況發生。

在各大企業與新創都陸續推出Deepfake檢測方案之際,有間在2021年才成立的新創Reality Defender脫穎而出,取得KPMG、Deloitte等跨國公司青睞,甚至包含台灣在內的多國政府也是客戶。

廣告(請繼續閱讀本文)

Reality Defender能夠利用「多模型」的方式檢測Deepfake,而且不論圖像、文字、錄音等媒體都能夠適用,相較於目前針對單一媒體、單一模型的解方更全面且精準。

究竟,Reality Defender如何在生成式AI的時代中扮演「數位偵探」?

Deepfake詐騙事件急增,數位浮水印遭破解

廣告(請繼續閱讀本文)

根據The World Economic Forum,2024年將迎來選舉年,有至少50個國家和超過20億人口進行選舉,各界人士紛紛擔憂生成式AI是否會影響選舉結果。

對此,OpenAI與微軟也表示將設立200萬美元(約新台幣6,445萬元)基金,以應對AI和Deepfake被用來「欺騙選民和破壞民主」的風險。

雖然市場上已經有許多解決方案,像是OpenAI在日前發布一款檢測工具,可以正確辨識由自家圖像生成器DALL-E 3創建的圖像。但該公司表示,該工具無法檢測Midjourney和Stability等其他生成器製作的圖像。

在AI生成內容加入數位浮水印也是解方之一,許多企業都在嘗試在AI生成內容中加入在機器下才能檢測的浮水印,防止Deepfake技術的濫用。

不過,《The Verge》卻在報導指出,已經有研究人員能夠破解許多數位浮水印系統,像是如果在附有水印的圖像上不斷添加雜訊,浮水印就無法被辨認,更有研究人員開發出專門破除浮水印的模型。

「多模型」檢測提高精準度,獲1,500萬美元A輪募資

Reality Defender的檢測技術則不需要依賴浮水印,並且採用「多模型」檢測,提高檢測的精準度。

什麼是多模型檢測?簡單來說,就是針對不同的Deepfake生成方式,設計相應的檢測模型,而不是單一模型。

目前Deepfake的生成內容都是依靠固定的模型,像是GAN圖像生成、Diffusion等等。GAN圖像生成是由「生成網路」及「鑑別網路」兩組AI模型組成,透過兩組模型相互競爭、回饋產出更精準的圖片,常被用於生成高解析度的圖像,像是老電影的修補,或是圖片的風格轉換;Diffusion則是利用神經網路進行多次的預測並去除圖片中的雜訊,生成與原始資料相似的圖片。

為了更精準地檢測出Deepfake內容,Reality Defender針對每種Deepfake生成方式,都設計出了相應的檢測模型。這些模型會尋找和辨識Deepfake生成過程中可能留下的微小特徵,判斷受檢測的內容是否為Deepfake生成,並產出介於1到99間的概率分數。

舉例來說,由GAN所生成的圖像的顏色處理方式與色彩分佈可能會與真實圖像有所不同,這些細微差異可能並非肉眼可察覺,但透過模型即可辨別;由Deepfake偽造的語音則可以透過說話者的換氣頻率、聲紋等方式進行檢測。

Reality defender針對可能生成Deepfake的方式設計出相對應的檢測模型,並產出介於1到99間的概率分數。

Reality Defender還針對不同類型的媒體,像是圖像、影片、音訊、文本分別設計出不同的檢測模型,提供全方位的檢測。目前,Reality Defender的客戶涵蓋幾大洲的政府,以及KPMG、Deloitte、VISA、NBC等公司。

Reality Defender團隊過去在Google、高盛和情報部門等機構從事數據科學和網路安全等工作20多年。

創辦人Ben Colman之前曾擔任高盛副總裁,他在2021年與Ali Shahriyari和Gaurav Bharaj一起推出了Reality Defender。Reality Defender最初是一家非營利組織。但Ben Colman表示,他們意識到Deepfake問題的嚴重性以及檢測技術背後龐大的市場商機,決定開始向外部募資。

Reality Defender創辦人 Ben Colman

Deepfake檢測如「貓捉老鼠」,無法保證準確性

2023年10月,Reality Defender在DCVC領投下取得1,500萬美元(約新台幣4.8億元)A輪募資,投資者包括Comcast、Ex/ante、Parameter Venture以及Nat Friedman’s AI Grant。Ben Colman表示,這筆資金會用於擴大團隊,並改善其檢測模型。

雖然Reality Defender的多模型檢測可以從多個角度對上傳的媒體進行檢測,但Deepfake技術就如同網路病毒會持續的變化,Deepfake檢測就如同「貓捉老鼠」,任何的檢測工具都無法百分之百避免問題。

許多專家皆對Deepfake檢測表示過疑慮,佛羅里達大學電腦科學專業教授Patrick Traynor就表示,軟體本身就是一種有限制的檢測方式,「機器學習確實擅長告訴你它以前見過的東西,但它不太擅長推理它沒見過的東西。」

「我們從不說100%,」Reality Defender的創辦人Ben Colman在《NBC News》的採訪中表示,「我們檢測最高的機率是99%,因為檢測結果從來沒辦法完全確定。」

然而,Ben Colman也強調團隊不斷致力於減少演算法中的偏差。「我們持續訓練並改進我們的檢測模型,讓它們能適用於新的情境和使用案例,同時準確地反映真實世界,而不只侷限於一小部分數據。」Ben Colman說。

參考資料:《Reality Defender》、《CNBC》、《TechCrunch》、《The New York Times》、《The Wall Street Journal》、《Deloitte Insights》、《NSFOCUS》、《TechCrunch》、《The Verge》、《NBC News》、 《Y Combinator》、《騰訊雲》、《GitHub

延伸閱讀

2023年度關鍵字:Authentic——生成式AI崛起卻引發虛實認同爭議?
「新創最害怕的是企業太保守!」生成式AI爆發,台灣新創、企業怎麼攜手搶商機?
事情不斷迭代、機會就不斷發生!Gogolook 12年前佈局防詐市場進軍全球
讓安迪沃荷原音復活、超過百萬人使用,Resemble AI打造聲音浮水印對抗AI倫理風暴

查看原始文章