理財

為何 AI 就是不想承認自己不知道?專家提 AI 幻覺解法

TechOrange 科技報橘
更新於 02月26日12:16 • 發布於 02月25日00:00 • LC

在人工智慧快速發展的今天,AI 能解決複雜的數學問題,甚至能逼真地模擬人類對話。然而,這些 AI 卻常常在最基本的問題上出錯,而且錯得十分自信。

AI 幻覺(hallucination)問題日益嚴重,即使在不確定答案情況下,它們也會很有自信的給你錯誤答案,主因是:AI 模型通常被設計為預測最可能的下一個詞、AI 被訓練要給出最佳答案,而不是表達不確定性,以及 AI 背後訓練的數據很少包含「不知道」。

廣告(請繼續閱讀本文)

《華爾街日報》記者 Ben Fritz 做了一個有趣的實驗。他向幾個最先進的 AI 聊天機器人詢問,「Ben Fritz 的妻子是誰?」。由於網路上幾乎找不到關於他婚姻的消息,這些 AI 給出了各種匪夷所思的答案:有說是他從未見過的作家,有說是他聞所未聞的某州女士,還有說是網球網紅。

這種現象就是 AI「幻覺」,它們可以用超有自信的語氣給你完全錯誤的答案。隨著 AI 逐漸融入我們的工作場所、學校和個人生活,這個問題帶來的風險也不斷增加。

為什麼 AI 會產生「幻覺」?怎麼解決?

廣告(請繼續閱讀本文)

西班牙瓦倫西亞 AI 研究所的教授 José Hernández-Orallo 解釋說,AI 模型的設計是為了猜測最可能出現的下一個詞或詞組。整個過程本質上是一種建立在海量數據基礎上的精密猜測。簡單來說,AI 通常被訓練成要給出它認為最好的答案,然後完全不表現出任何懷疑。

這個問題在該領域已經是最熱門的研究專題之一。研究人員正在探索多種可能的解決方案:

  • 檢索增強生成(英語:Retrieval-augmented generation, RAG ) :這是一種讓 AI 在回答問題時「邊查邊說」的方法。當 AI 需要回答問題時,它不僅依靠訓練時學到的知識,還會即時去查詢相關資料庫或文檔。就像人類在針對討論專業領域問題時,絕對不是完全依賴記憶。這種方法能大大降低 AI 產生錯誤訊息的可能性,因為它可以即時獲取最新、最準確的資訊。
  • 教會 AI 說「我不知道」:在德國哈索·普拉特納研究院研究所,博士生 Roi Cohen 和Konstantin Dobler 提出了一個從根本解決問題的方法,也就是教會 AI 模型說出「我不知道」。

他們設計了一種方法,在 AI 模型最早期的預訓練階段就介入,教會它理解不確定性。雖然這種方法會讓 AI 有時在明明知道答案的情況下也說「不知道」,但對於那些重視準確性的應用場景來說,這種取捨是值得的。

讓 AI 學會誠實,可能是最好的發展策略

根據 Pew Research Center 的調查,即使 AI 變得越來越強大,美國人對它的信心反而在下降。2023年,52%的人對 AI 感到擔憂多於興奮,相比之下 2021 年這一比例是 37%。

讓 AI 更謙遜可能是解決這個問題的一部分。正如 José Hernández-Orallo 教授所說:「當你問某人一個難題,他們若表示自己無法回答時,反而會建立信任。但在構建 AI 時,我們卻沒有遵循這個常規的建議。」

免費報名 3/17-3/21【NVIDIA GTC 2025】AI 大會

📢 活動辦法:成功報名 NVIDIA GTC 2025 並於 3/17-3/21 觀看任一場 GTC 線上演講,私訊 TechOrange 粉絲專頁提供報名時的註冊名稱、公司與信箱,即可抽 NVIDIA® GeForce RTX™ 4080 SUPER 顯卡

【推薦閱讀】

工作任務從 5 分鐘變 5 秒!這些企業用 AI 代理解決 4 大問題
人氣專案平台 Monday 怎麼做 AI 轉型? 3 階段從內部採用走向產品創新
DeepSeek 帶動 Edge AI App 時代來臨!專訪簡立峰:任何因 AI 在終端加速的都會受益

*本文開放合作夥伴轉載,參考資料:《WSJ》《Pew Research Center》,首圖來源:AI 工具 Image Creator 生成。

(責任編輯:廖紹伶)

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章