82% 受訪企業自認安全,卻有 88% 遇過 AI Agent 資安事件?解析背後防護落差
企業導入 AI agent 的速度,已經遠遠超過資安架構的進化速度。一項來自《VentureBeat》的調查指出,當企業開始讓 AI Agent 具備自主執行任務、調用工具甚至跨系統操作的能力時,多數資安體系仍停留在「監控與紀錄」的階段,尚未進入真正的防護與隔離層級,這種「看得到但管不住」的狀態,正是目前企業普遍的資安結構。
82% 受訪企業自認安全,同時有 88% 已發生 Agent 資安事件
這種落差首先在企業的認知與現實之間浮現。在 API 管理商 Gravitee 調查全球 919 位高階主管與從業人員的《2026 AI 代理安全現況》(State of AI Agent Security)報告中,有 82% 的高階主管認為自家資安策略能夠保護他們免受未經授權的 AI Agent 操作影響,但同時有 88% 高階主管表示,過去一年已發生過 Agent 相關的資安事件。換句話說,多數企業自認安全,但實際上已遭遇風險。
進一步來看,真正具備關鍵防護能力的企業比例更低。該報告顯示,僅有約 21% 的受訪企業能及時掌握 AI Agent 在 Runtime 的行為。這代表有近 8 成企業其實無法回答一個最基本的問題:AI Agent 現在正在做什麼。
問題核心:AI agent 已從工具變成「機器身份」
這種防護失效是架構層級的錯位。《VentureBeat》在 2026 年 1/6 至 3/15 針對 108 家員工人數超過 100 人的機構進行三輪調查,其分析,AI agent 的角色,正在從「工具」轉變為具備高度權限的「機器身份」,它們可以持有 OAuth token、API key,持續存取企業內部資料,甚至跨系統執行任務。然而 CrowdStrike CTO Elia Zaitsev 就曾表示在實務上,「幾乎無法區分是人類在操作系統,還是 Agent 在背景執行任務」。
這直接衝擊傳統資安模型,Gravitee 表示,過去的防護邏輯是以「人」為中心設計,例如帳號驗證、權限控管與行為監控,但在 AI Agent 時代,這些機制無法有效處理非人類、高頻率、自動化的操作行為。
以近期 3 月發生的事件為例,Meta 內部一個失控的 AI Agent 成功通過了所有身分驗證機制,卻仍將敏感資料暴露給未經授權的員工;兩週後,估值百億美元的 AI 新創 Mercor 也證實透過 LiteLLM 發生了供應鏈外洩事件。在這些威脅中,對手最快突破防線的時間已降至 27 秒,這時專為人類操作速度設計的監控儀表板,幾乎無法跟上機器的攻擊速度。
更極端的情況是,25% 的企業部署的 AI agent 已具備「創造其他 agent」的能力,意味著系統內還可能出現未經資安團隊審核的新身份,也就是所謂的「影子 agent」。
企業防線為何失效?因為只做到「監控」
《VentureBeat》指出,上述事件與現象都指向同一個結構性漏洞,也就是企業防線停滯在有監控卻無執行限制,以及有執行限制卻無隔離的困境。其指出,完整的 AI agent 資安治理包含觀察(observe)、執行(enforce)到隔離(isolate)三個階段,目前的企業現狀是,多數組織仍受困於觀察階段。
針對第一階段,《VentureBeat》調查顯示,企業資安預算中約 45% 仍投入在監控,但真正需要的其實是權限控制與隔離機制。
在第二階段的執行(enforce)中,企業需要將觀察轉化為控制,包括為每個 Agent 建立獨立身份、限制工具調用權限,以及建立跨系統的 IAM 管理。但根據 Gravitee 調查的現實是,仍有 45.6% 的企業使用共享 API key,使 Agent 可在系統內自由橫向移動。
而在第三階段隔離(isolate),問題更為嚴重。當 Agent 可以自行生成子 Agent,並繼承權限時,若缺乏 sandbox 隔離與人工審核機制,一旦發生異常,影響範圍將從單一任務擴散至整個組織。
《VentureBeat》檢視目前主流雲端 AI 平台包括 Microsoft Azure、Anthropic、Google Cloud、OpenAI、AWS,指出目前沒有平台已完整提供三個階段的資安能力,多數企業仍需自行拼裝隔離架構。
這也意味著,未來資安競爭的關鍵,不再是「是否導入 AI」,而是企業能否建立一套能應對 Agent 行為的治理體系。也就是說,當 82% 受訪企業相信自己已準備好,但 88% 已經出事,這不只是落差,而是警訊。
【推薦閱讀】
◆ 影子 AI 2.0 來臨?專家揭「設備端推理」為何成為資安長新盲點
*本文開放合作夥伴轉載,資料來源:《VentureBeat》、Gravitee,首圖來源:Unsplash