AI 成為「無意的詐騙放大器」:為何你該懷疑聊天機器人給出的每一組客服電話?
詐騙集團過去常在 Google 搜尋結果散佈假客服電話,鎖定只想解決小問題、急著求助的使用者。如今同一套套路正快速移轉到新的資訊入口:AI 搜尋與聊天機器人。
AI 網路安全公司 Aurascape 的報告指出,詐騙者會把假的客服或預訂電話「埋」進 AI 會抓取的公開網頁與文件,讓它在 Perplexity、Google AI Overviews 等服務的回覆中,以看似權威的方式被呈現為聯絡資訊。使用者一旦撥打,接通的不是品牌客服,而是詐騙者。
攻擊者在改寫 AI 讀取的網路
Aurascape Aura Labs 首席安全研究員 Qi Deng 強調,這不是越獄,也不是模型憑空臆造一個隨機號碼,而是攻擊者悄悄改寫 AI 系統讀取的網路。
當使用者詢問如何聯絡航空公司時,AI 助手其實是在照設計流程檢索、整理與生成答案,但被提供的客服與預訂電話卻被導向詐騙者。Aurascape 將這種模式稱為「LLM 電話號碼投毒」,其目標是成為 AI 助理「選擇、總結並呈現為答案」的唯一來源。
為了讓號碼更容易被 AI 摘要採用,詐騙者不再只追求搜尋排名,而是追求「被收斂成單一答案」。
他們會把內容放在高信任度或容易被引用的來源上,包括被入侵的政府與大學網站、常見的 WordPress 網站,或是 YouTube 等用戶生成內容平台;並以 AI 更易解析的形式呈現,例如簡單的問答、列表,反覆出現品牌名與電話號碼,甚至刻意讓措辭貼近使用者可能輸入的問題。
SEO 追求在結果頁「排前面」,GEO/AEO 則追求被 AI「挑中並當成答案」。因此,問題不在於 LLM 被入侵,而在於生成式搜尋的檢索與引用機制被污染。
Qi Deng 也警告,即使 AI 今天能正確抓到客服電話,它的檢索層已經被污染,「攻擊正在進行中」,更多被污染的來源滲入最終答案只是時間問題。
AI 成為「無意的詐騙放大器」,平台開始迴避高風險答案
這類研究結果揭示了 AI 搜尋帶來的新攻擊面。任何會抓取並彙總公共網路內容、再直接提供給使用者的系統,都可能成為操縱目標。
當使用者越來越把 AI 視為「直接給答案」的入口,一個被篡改的數字就可能造成巨大損失。
但平台也已開始正視風險。以 Perplexity 為例,面對「客服電話」提問時,回覆策略傾向引導使用者回到品牌官網查證,甚至避免直接給出電話號碼,因為電話、下載連結等資訊,一旦被錯置,後果往往比一般錯誤知識更立即、也更難挽回。
當務之急:把「查證」與「監控」拉回工作流
在更深層的防禦機制成熟前,Aurascape 建議先從操作面降低受害機率。
以上述提到的客服電話案例來說,第一是核對:查找客服與預訂電話務必回到航空公司或品牌的官方網站/App 確認,而不是把 AI 的單一回覆當作終點。
第二是對施壓話術保持懷疑:即使是「透過 AI 助手找來的電話」,一旦通話中出現意外追加銷售、退款提議或要求「立即行動」的壓力訊號,都應提高警覺。
對企業資安與風險管理者而言,更關鍵的是第三點:監控企業內 AI 的使用情況。
企業需要知道員工在使用哪些 AI 工具、看到了哪些連結與數字、這些回覆如何影響財務、差旅與 IT 支援等高風險流程。當 AI 變成新的搜尋入口,防線也必須跟著前移:不只防「惡意程式」,也要防「被包裝成答案的錯誤聯絡資訊」進入日常作業。
這起「LLM 電話號碼投毒」提醒的並不是模型變笨或變聰明,而是生成式搜尋把「答案」放到了前所未有的位置:它更像一個可被操縱的分發系統。
當權威性被濫用,風險就不再只是幻覺或誤答,而是企業工作流程在不知不覺間被導向詐騙者。這也是下一階段平台與企業必須重新定義的問題:哪些資訊可以由 AI 直接給出,哪些必須被設計成「只能導回官方驗證」。
*本文開放合作夥伴轉載,參考資料:《Gizmodo》、《BusinessWire》,首圖來源:Unsplash
(責任編輯:鄒家彥)