【AI 肉搜時代?】ChatGPT 看圖就猜出地點,OpenAI 回應卻語焉不詳
OpenAI 近期推出具備強大圖像推理能力的 o3 與 o4-mini 模型,這些模型展現出驚人的「反向圖像定位」能力——用戶在社交媒體平台 X 上發現,o3 模型能夠根據照片中的各種細節,如菜單、街景或裝潢風格,準確判斷拍攝地點。
令人擔憂的是,這項功能無需依賴歷史對話紀錄,純粹通過圖像內容進行推理,引發了外界對隱私安全的廣泛關注。
能精準判斷照片位置,易成肉搜工具
o3 模型在某些定位測試中展現驚人精準度,甚至超越 GPT-4o。像有次測試中,它僅憑一個紫色犀牛頭裝飾,就正確辨識出昏暗酒吧為威廉斯堡地點,而 GPT-4o 則誤判為英國酒吧。
雖然 o3 的判斷並非完全無誤,譬如有時會陷入循環或給出錯誤位置,但其能夠解讀模糊圖像和識別細微線索的能力已經引發用戶大規模測試,進而演變為潛在的濫用風險;比如,越來越多用戶開始用 AI 在社群平台進行圖像定位測試,像是讓 o3 推理 Instagram 限動或街拍的拍攝地點。
有研究 AI 的教授 Ethan Mollick 分享了一個例子,即使他移除了照片背後的位置數據, ChatGPT 仍能正確猜出他開車所在的位置。甚至在科技媒體《Mashable》的測試中,ChatGPT 能夠提供具體的地址,而當 AI 無法確定精確位置時,它仍能提供相當接近的猜測。
AI 太聰明但保護機制沒跟上?OpenAI 回應模糊
ChatGPT 似乎並未針對這類「反向圖像定位」設置相關防護機制。令人擔憂的是, OpenAI 尚未在 o3 和 o4-mini 的安全報告中充分說明這風險,也未設置可見的警示。
這種情況反映了當前 AI 技術發展與安全監管之間的差距。新一代多模態語言模型在語意理解與現實世界推論方面的能力正在快速增強,但相應的保護措施卻尚未跟上。
科技媒體《TechCrunch》發布相關報導數小時後,OpenAI 發言人才作出回應:
「OpenAI o3 和 o4-mini 為 ChatGPT 帶來視覺推理能力,若用在無障礙、研究或緊急應變辨別位置等領域會更有幫助。我們已努力訓練模型拒絕私人要求或觸碰敏感議題,並積極監控和採取行動應對違反我們隱私使用政策的行為。」
不過這回應還是沒有直接解決「反向圖像定位」功能可能帶來的隱私風險,也未闡明 OpenAI 是否計劃在未來版本中增加更嚴格的限制。
如何監管 AI ,避免它從單一照片就猜出地點?
隨著 AI 圖像推理能力的不斷提升,我們是否正步入「隱私終結」的時代?當一張無意中分享的照片可能暴露個人所在位置時,AI 技術的發展似乎正在改寫隱私的邊界。
企業與平台需要重新檢視 AI 模型在圖片分析功能時的用途與防護界線。技術發展不應以犧牲用戶隱私為代價,而是需要在功能與安全之間找到平衡點。
政府部門也會因此面臨新問題:要如何監管 AI ,避免它從單一照片就猜出地點?
以前的監管政策主要管控 GPS 追蹤或照片中隱藏的位置數據,但現在 AI 光看照片內容就能推斷出位置,這是監管單位從來沒有預設到的範圍。因此,現階段絕對需要制定新的規定和標準來保護人們的隱私,避免有人利用 AI 來追蹤他人。
在享受 AI 技術進步帶來便利的同時,我們不應忽視它可能對個人隱私產生的深遠影響。研發出技術的科技公司、各國的監管機構,甚至是用戶本人都需要共同參與,才能建立更加全面、有效的隱私保護生態。
企業導入 AI 為何須重新思考資安?揭開資安攻擊的新破口 >>看專題<<
【推薦閱讀】
◆ 通訊軟體 Signal 下載飆升 958%!數位隱私意識崛起,資安專家該關注什麼?
◆ 導入 AI 卻出賣你的隱私?專家發現 Gmail、Word 常見工具潛藏隱憂
◆ 專屬果粉的資安考試:iPhone 沒那麼「有隱私」!果粉如何保護自己數據不被蘋果蒐集?
*本文開放合作夥伴轉載,參考資料:《TechCrunch》、《Mashable》,首圖由 ChatGPT AI 生成
(責任編輯:鄒家彥)