快速發展的 AI 技術,宛如網路安全的雙面刃,安全廠商可以使用 AI 提升防護能力,威脅行動者也可以藉助 A I發動更具破壞性的攻擊。根據 Palo Alto Networks 旗下 Unit 42 威脅研究團隊的最新研究發現,利用大型語言模型(LLM)不但能生成新的惡意 JavaScript 程式碼變種,還可以大規模「量產」,甚至可以更有效地規避安全偵測。
Unit 42 新分析報告指出,雖然 LLM 難以從零創建惡意軟體,但犯罪分子可輕易用 LLM 重寫或混淆現有惡意軟體,讓惡意軟體更難偵測。也能誘導 LLM 更自然程式碼轉換,讓惡意軟體的偵測難度提升。隨著時間推移和足夠次數的轉換,惡意軟體分類系統甚至會將這些被轉換或混淆的惡意程式碼視為「良性」。
惡意濫用 LLM 情形猖獗,駭客公然為 WormGPT 等駭客工具打廣告
儘管 LLM 供應商愈益加強安全防護措施,以防止模型遭到竊取攻擊或惡意濫用。但不法分子仍然大打像是 WormGPT 這類駭客工具的廣告,宣傳它是自動化製作網路釣魚電子郵件的神弓,更是設計全新惡意軟體的利器。
OpenAI 10 月自我揭露封鎖 20 多個試圖利用平台偵察、漏洞研究、腳本支援(scripting support)和除錯的惡意行動與欺敵網路(deceptive network)。這再再說明當前 LLM 模型遭到攻擊與濫用的情況有多麼嚴重。
透過多種對抗性 ML 手法徹底改造惡意軟體,規避偵測成功率高達 88%
為了探索 LLM 對惡意攻擊的幫助有多大,Unit 42 特別利用 LLM 反覆重寫現有的惡意軟體樣本,以便規避像是「無罪推定」(Innocent Until Proven Guilty, IUPG)或 PhishingJS 等 DL 深度學習模型的偵測。不改變原有惡意機能的情況下,他們成功找到能有效地創建 1 萬種 JavaScript 新變種的方法與途徑。
當前這類對抗性機器學習(Adversarial ML)技術旨在使用包括變數更名、字串分割、插入垃圾程式碼、刪除不必要空白字元,以及程式碼完全重新實作等多種方法來改造惡意軟體。
透過上述方法,最終成功生成全新的惡意 JavaScript 變種,不但保持原始腳本相同行為,還能獲更低惡意評分。Unit 42 強調指出,在這類惡意演算法的加持下,他們讓惡意軟體分類模型的判定結果從「惡意」轉變成「良性」的機率達到 88%。不僅如此,這些重寫過的 JavaScript 程式碼工件在上傳至 VirusTotal 平台時,也能成功逃避其他惡意軟體分析器的偵測。
對於駭客而言,經過 LLM 混淆過後的惡意軟體還帶來了另一個重要優勢,那就是經重寫後的惡意軟體看起來遠比 obfuscator.io 之類函式庫所達到的結果更加自然、更加難以偵測。
Unit 42 預測指出,未來 Gen AI 幫助下,新惡意程式碼變種的數量規模可能會再增加。或許我們應該做好準備,採用相同的策略重寫惡意程式,以為提升深度學習偵測機制與能力的訓練素材。
(首圖來源:Pixabay)
留言 0