AI 資安攻防升級:OpenAI 推 GPT-5.4-Cyber,釋出策略與 Anthropic 出現分歧
生成式 AI 正快速滲透資安領域,而這場競賽已從模型能力延伸至「如何釋出」。在 Anthropic 發表資安模型 Claude Mythos 一週後,OpenAI 隨即推出 GPT-5.4-Cyber,揭開 AI 資安模型競賽的下一階段:不只是誰能找漏洞,更是誰能在「開放與風險」之間建立合理邊界。
從模型競賽走向資安戰場,AI 開始直接參與漏洞攻防
OpenAI 最新推出的 GPT-5.4-Cyber,是針對資安防禦場景微調的模型,核心能力聚焦於漏洞偵測與分析,甚至可進一步支援二進位反向工程(binary reverse engineering),協助研究人員在沒有原始碼的情況下分析軟體安全性。
這類能力的出現,反映 AI 在資安領域的角色已出現質變。過去,AI 多用於輔助程式開發或簡單掃描漏洞;如今,模型已能跨系統推理、分析複雜攻擊面,甚至參與完整資安工作流程。
也因此,風險同步升高。AI 不僅能幫助防禦者,也可能被駭客與國家級攻擊者利用。這正是 Anthropic 在推出 Mythos 時採取高度保守策略的原因。該模型據稱已能在作業系統與瀏覽器中找出大量高風險漏洞,引發金融機構與政府高度關注。
同樣限量釋出,但兩家公司走出不同路徑
面對 AI 風險,OpenAI 與 Anthropic 選擇了截然不同的釋出策略。Anthropic 透過「Glasswing 計畫」將 Mythos 嚴格限制在約 40 個組織內,包括 Amazon、Apple 與 Microsoft 等大型企業,採取高度控管與封閉測試模式。
相較之下,OpenAI 則選擇「分級開放」。透過其 Trusted Access for Cyber(TAC)機制,先讓數百名經驗證的資安研究人員與組織使用,並計畫逐步擴大至數千名參與者。不同驗證等級對應不同模型能力,高階用戶才能存取 GPT-5.4-Cyber 這類「較寬鬆限制」的版本。據《implicator.ai》報導,OpenAI 目前暫未向美國政府機構開放 GPT-5.4-Cyber,相關討論仍在進行中,最終決定將經過內部治理與安全審查程序。
這種差異,反映兩家公司對風險控管的核心假設不同:Anthropic 強調「限制能力」,OpenAI 則聚焦「管理使用者」。
OpenAI 三大原則:不是關閉能力,而是擴大可控使用
在策略層面,OpenAI 在官方文章中明確提出三個核心原則,作為其資安模型部署路線的依據。
第一是「民主化存取」。OpenAI 強調目標是盡可能廣泛地提供工具,同時防止濫用,透過明確、客觀的標準,例如嚴格的認識你的客戶(KYC)身份驗證,決定誰能存取更進階的能力,並逐步將這些流程自動化,避免由人工主觀決定存取資格。
第二是「迭代部署」。OpenAI 表示將謹慎地將系統推向市場,並持續改進,包括提升對越獄攻擊與其他對抗性攻擊的韌性,同時強化防禦能力、降低危害。
第三是「投資生態韌性」。OpenAI 透過信任存取管道、專項補助、開源安全計畫貢獻,以及 Codex Security 等工具,持續支持資安防禦者社群。此外,OpenAI 的資安補助計畫自 2023 年啟動,並於今年 2 月承諾提供 1,000 萬美元的 API 點數支持。
批評 Anthropic:安全不該只靠封閉
兩家公司的釋出策略呈現差異,據《WIRED》報導,OpenAI 在發布文章中明確表示,「目前使用中的這類防護措施,已足以將資安風險降低至足以支持現有模型廣泛部署的程度」,並暗示過度限制可能反而削弱整體防禦能力,語氣上刻意與 Anthropic 的警示性論述拉開距離。
Anthropic 的 Mythos 發布被《implicator.ai》形容為近乎「曼哈頓計畫式」的敘事框架,強調模型能力引發的資安危機感;OpenAI 則選擇走相反方向:更廣泛的存取、身份驗證作為管控核心、較少災難性的修辭。《implicator.ai》指出,OpenAI 將「身份驗證優於能力限縮」作為管控手段,與資安領域長期以來「負責任的揭露優於保密」的傳統邏輯一脈相承。
OpenAI 對 Anthropic 的 Glasswing 計畫也提出批評。OpenAI 在文章中表示,不認為由少數人集中決定誰有資格保護自己是實際可行或適當的做法,而應讓盡可能多的合法防禦者取得工具,並以驗證、信任信號與問責機制作為基礎。
AI 資安進入新階段:能力、治理與責任同步競爭
資安專家界對於 AI 資安的最佳處理方式仍存在分歧。據《WIRED》報導,部分專家認為 Anthropic 對模型風險的憂慮被過度渲染,甚至可能助長新一波反駭客情緒,進一步鞏固科技巨頭對關鍵基礎設施防禦資源的壟斷;另一部分人則強調,現有資安防禦中的漏洞與不足早已廣為人知,在代理式 AI 時代,這些弱點確實可能被更廣泛的攻擊者以更快的速度、更高的強度加以利用。
《The New York Times》引述 OpenAI 董事會成員、卡內基美隆大學專攻資安與 AI 領域的教授 Zico Kolter 的說法指出,「大約四到五個月前,這些系統的能力出現了一次躍進式的變化」,為 AI 資安模型競賽的急迫性提供了具體佐證。
而據《Bloomberg》報導,Anthropic 的 Mythos 發布已在金融機構與政府機構之間引發疑慮,美國財政部長 Scott Bessent 與聯準會主席 Jerome Powell 召集華爾街領袖開會,提醒與會者應認真看待 Mythos 的潛在影響;財政部技術團隊也正積極尋求取得 Mythos 的存取權限,以展開漏洞排查工作。
這場釋出路線之爭,反映出 AI 開發商在追求模型能力突破的同時,也正積極探索風險控管與使用邊界的最佳實踐。OpenAI 表示,目前的防護措施已足以降低當前模型的網路風險,但他們也坦言,未來的模型能力將迅速超越現有防禦系統,屆時勢必需要更廣泛、更嚴格的保護機制。
無論是 Anthropic 還是 OpenAI,都清楚標示著一個趨勢:AI 在資安領域的應用已不再是純粹的技術展示,而是正式進入必須兼顧攻防雙方火力平衡的審慎測試與部署階段。
【推薦閱讀】
◆ Anthropic 不敢全面公開的 AI:Claude Mythos 為何正在重寫網路安全規則?
*本文開放合作夥伴轉載,資料來源:《Bloomberg》、《WIRED》、《Reuters》、OpenAI、《The New York Times》、Constellation Research、《implicator.ai》,首圖來源:Unsplash