駭客不需駭入系統,只要讓你的 AI 客服讀一封信:趨勢科技 TrendAI 揭三大攻擊型態升級
隨著 AI 技術演進,企業希望盡快導入 AI 驅動創新,卻也面臨風險控管的兩難。趨勢科技旗下 TrendAI 調查,74% 的台灣受訪企業決策者坦言,過去曾在高層要求或市場競爭壓力下,被迫核准在企業導入可能帶來資安風險的 AI 方案;同時只有不到一半的企業認為內部團隊能辨識惡意或異常的 AI 行為,顯示台灣企業正面臨「盲目導入 AI」的高度風險。
不過,究竟企業當前面對的是什麼樣的資安風險、該如何應對?TrendAI 勾勒出三大威脅升級的具體樣態,提醒企業留意。
威脅升級一:假資訊與詐騙內容的大規模生產
TrendAI 威脅研究總監 Ryan Flores 指出,自從 2022 年底 ChatGPT 問世以來,垃圾郵件數量大幅增加了 1,000%,且預計到今年底,網路上的 90% 內容將由 AI 生成。他表示,駭客利用 AI 發動的攻擊也將變得更低成本,更具可擴展性。
TrendAI 實測,只需花費一週與不到 20 塊美金的 AI 影片生成訂閱費,不需親手撰寫程式碼,就能利用無程式碼(No-code)工具串接,在電商平台上創造出完美的「假賣家、假商品、假買家評論影片」,如此一來便可能輕鬆實現大規模詐騙。
威脅升級二:身分偽造進化,企業招募與信任機制面臨新挑戰
TrendAI 也觀察到,已有北韓駭客利用竊取而來的 LinkedIn、GitHub 等公開資料,搭配大型語言模型與深偽技術,偽裝成遠距 IT 工作者應聘。一旦錄取成為內部員工,其就會進行資料竊取、部署勒索軟體,或盜取資產。「一旦他們成為員工,基本上就成為內部威脅,所以可以進行橫向移動。」Flores 說。
駭客也會架設「假公司」發布職缺,要求求職者下載包含惡意軟體的面試測試包,反向盜取求職者的資產與身份,甚至劫持真實帳號。
威脅升級三:AI 原生攻擊工具與 AI 系統濫用,突破傳統限制
值得關注的是,隨著大型語言模型運算能力躍進,TrendAI 觀察到駭客攻擊手法已突破傳統技術限制,例如近期 LameHug 等惡意工具,便刻意偽裝成圖像生成應用,實際上是內嵌 LLM 運算能力,讓攻擊者只需透過提示指令下達意圖,模型就可以自動編譯並執行惡意指令。TrendAI 強調,這樣的攻擊能使單一軟體無縫跨越 Windows、Mac 與 Linux 多重作業系統的限制而發動攻擊。
Flores 表示,這種威脅的恐怖之處在於,未來的惡意軟體可能不再有固定程式碼,只要用「提示詞(Prompts)」就能由 AI 針對不同作業系統自動調整攻擊語法。
Flores 也提到,企業內部的 AI 系統例如智能客服、自助查詢或自動化流程平台,也可能成為「提示詞注入(Prompt Injection)」的跳板,成為新威脅。駭客只需在發給客服的信件中隱藏特殊指令,當企業的 AI 讀取該信件時,就會被誘騙去執行超出預期的動作,整個攻擊過程不需要駭入系統或寫入任何程式碼。
TrendAI 呼籲企業建立治理框架,善用整合能力工具
由上述威脅樣態可見,傳統防禦機制已能被生成式 AI 輕易破解。但 Flores 呼籲,儘管 AI 技術屢遭駭客濫用,AI 仍是驅動產業變革的時代創新,而面對 AI 時代的威脅,建立完善的安全機制與治理框架將成為企業相當重要的議題。他建議,企業應採用智慧的資安事件管理(Security Information and Event Management,SIEM),得以將碎片化數據資料轉化為一致語言,並有效分析串聯跨系統資訊,加速判斷與決策效率。
舉例來說,面對暴增的威脅日誌,可利用 AI 擅長「翻譯」的特性,將不同設備與系統的日誌格式統一並進行關聯分析,幫助資安人員從海量數據中找出最高風險的事件,在規模上提供幫助。
TrendAI 台灣暨香港區總經理洪偉淦在接受媒體訪問時,補充了企業導入 AI 代理時必須思考的兩個關鍵原則。第一是慎選大型語言模型,因為現在有許多開源或號稱免費的語言模型,但背後可能隱含未知資安風險,因此需要審慎評估。第二是權限控管,企業在設計 AI 系統時,就必須設定極為明確的框架與權限範圍,以防 AI 遭駭客利用。
洪偉淦指出,「我們觀察多數台灣企業的資安架構仍停留在過去以工具與規則為核心的模式。而在 AI 時代的競爭關鍵,不在於誰擁有最完整的資安工具,而在於誰能最快理解風險、做出決策」。
*首圖來源:《TechOrange》拍攝。