你的 AI 模型正在被吸血嗎?Gemini 遭蒸餾攻擊,示警企業自建 LLM 成下個目標
Google 近期發布資安報告揭露,其旗艦 AI 聊天機器人 Gemini 正面臨來自全球各地、具備商業動機的攻擊者所發動的大規模攻擊。這些攻擊者並非試圖破壞服務,而是利用「提示詞」(Prompt)作為武器,透過反覆且密集的查詢來試圖複製 Gemini 的能力。
Google 威脅情報團隊(Threat Intelligence Group)資深分析師 John Hultquist 告訴《NBC》,對於 Gemini 的攻擊規模顯示,這類手法很可能已經、或即將成為針對中小企業自建 AI 工具的常見攻擊模式。
一次發送逾 10 萬次查詢指令:什麼是蒸餾攻擊?
在 Google 偵測到的一起特定攻擊行動中,攻擊者在短時間內發送了超過 10 萬次不同的查詢指令,意圖透過這些回應來逆向工程,還原模型的運作邏輯與推理模式。這種攻擊手法在資安領域被稱為「模型汲取」(Model Extraction)或「蒸餾攻擊」(Distillation Attacks)。
Google 指出,這些攻擊者大多是希望獲取競爭優勢的私人企業或研究人員。他們透過向 Gemini 發送精心設計的問題,試圖誘導模型揭露其內在思考過程。一旦取得這些高品質的推理數據,攻擊者就能以極低的成本與時間,訓練出效能相近的自家模型。
這類攻擊通常不影響一般使用者的資料機密性或可用性,但對模型開發者與服務供應商而言,是重大智慧財產風險。Google 就指出,這是一種違反 Google 服務條款的智慧財產權盜竊手段。
低成本獲取高效能,DeepSeek 爭議突顯產業競爭
蒸餾攻擊之所以猖獗,在於它能讓後進者走捷徑。這類技術本質上是讓一個較小的「學生模型」去學習大型「老師模型」的產出,從而獲得類似的能力,但卻不需要耗費同等級的算力與研發成本。這並非單一事件,OpenAI 先前也曾指控中國競爭對手 DeepSeek 利用蒸餾技術,透過提取 OpenAI 模型的數據來訓練其 R1 模型,藉此「搭便車」提升自身技術實力。
Google 的報告進一步證實,這種「吸血」行為將成為產業普遍現象。攻擊者不再需要入侵伺服器竊取程式碼,只需透過合法的查詢管道,就能像拼圖一樣,一點一滴地拼湊出頂尖 AI 模型的全貌。Google 報告顯示,其已透過即時防禦機制成功降低了風險,避免內部推理資訊外洩。
煤礦裡的金絲雀,企業客製化模型恐成下個目標
「我們只是煤礦裡的金絲雀,」Hultquist 以此來形容 Google 目前的處境,暗示他們只是率先偵測到危險的預警者,更大的風暴即將來臨。
Hultquist 指出,隨著越來越多公司訓練自家客製化 LLM,尤其是包含敏感商業資料的模型,其專有知識也可能被蒸餾。他舉例,如果某企業的 LLM 訓練於 100 年的交易決策資料,理論上也可能被抽取部分能力。
立即報名 3/3「AI 智慧大工廠」論壇台北場,解密 Agentic AI 如何重塑「超自動化」工廠
*本文開放合作夥伴轉載,資料來源:《NBC》、《Bloomberg》、Google Cloud,首圖來源:Unsplash