OpenAI 報告揭醫療新變局:當 AI 成為 4,000 萬人每日的「醫療入口」,準確性風險如何解?
生成式 AI 正在改變人們接觸醫療資訊的方式。根據 OpenAI 在 2026 年 1 月發布的《AI 作為醫療盟友》(AI as a Healthcare Ally)報告,全球每天已有超過 4,000 萬人透過 ChatGPT 查詢健康相關資訊。這代表在所有 ChatGPT 的對話中,已有超過 5% 與醫療健康有關,顯示 AI 正快速成為許多人面對健康問題時的第一個求助對象。
OpenAI 在報告中也特別指出,在美國,結構複雜、成本高昂的醫療體系,對許多人而言是一個「長期且持續惡化的痛點」,這也讓使用者更傾向透過 AI 尋求協助,以試圖找到方向。
為什麼使用者把 AI 當成醫療資訊第一站?
根據 OpenAI 的調查,這類將 AI 視為醫療體系「入口」的移動現象,已呈現出幾個明確的行為特徵。首先是對「非門診時間」即時解答的高度需求,報告顯示高達 7 成的健康相關對話,發生在一般診所的非營業時段,反映當實體醫療資源暫時不可得時,AI 正在填補資訊真空。同時,調查也指出有 52% 的使用者明確表示,使用 ChatGPT 是因為能在「一天中的任何時間」獲得回應,這樣的使用模式,凸顯 AI 不再只是輔助工具,而是逐漸成為與初級照護、急診並列的醫療資訊「第一站」。
其次,這股趨勢在醫療資源相對匱乏的地區尤為明顯。在偏鄉與弱勢社區,因實體照護難以觸及,所以會更頻繁地使用 ChatGPT 提問, OpenAI 指出用戶每週平均會送出接近 60 萬則與醫療照護相關的訊息,這也顯示 AI 正在一定程度上縮小因地理限制所造成的醫療落差,協助人們在實體資源受限的情況下,取得基本的醫療資訊支持。
第三個特徵,則體現在健康判斷與自我管理行為的改變。使用者不再只是將 AI 當作輸入症狀、獲得回覆的工具,而是逐步把它納入個人健康旅程的管理流程中。數據顯示,55% 的美國使用者會透過 AI 來理解症狀、48% 用於解讀艱澀的醫療術語,另有 44% 是用來了解不同的治療選項。透過輸入醫師既有的建議與自身情境,ChatGPT 能針對病況嚴重程度提供提醒,協助使用者判斷是「可以等待門診預約」,還是「需要尋求急診治療」,讓病患在後續與醫師進行專業溝通時,更具備知識與提問基礎。
在保險補助縮減、醫療成本持續攀升的背景下,越來越多病患開始仰賴 AI,作為在複雜醫療體系中的「盟友」,而這股變化,也正在重塑進入醫療體系的第一步。
醫療錯誤資訊的滑坡可能會對民眾健康帶來新風險
儘管生成式 AI 展現出成為「醫療盟友」的巨大潛力,但隱含的風險同樣不容忽視。《Axios》就指出,生成式 AI 容易產生聽起來權威卻內容不完整甚至錯誤的回應,而在醫療場景中,這類錯誤所付出的代價,遠高於一般消費型應用。
這樣的隱憂在心理健康領域尤為突出,《Axios》指出,ChatGPT 在心理健康對話中,可能給出錯誤且具危險性的建議,像是 OpenAI 目前正面臨多起訴訟,因為原告主張自己的親友在與 ChatGPT 互動後出現「自傷或自殺」的行為。正因如此,美國部分州政府已立法禁止 AI 聊天機器人提供心理健康諮詢或治療決策,英國慈善機構 Mind 也警告,AI 在處理思覺失調、飲食障礙等狀況時,經常提供「非常危險」或具傷害性的建議,甚至可能導致病患延後或逃避尋求專業醫療協助的情況。
除了 ChatGPT,搜尋引擎中的生成式 AI 同樣暴露出嚴重風險。《衛報》調查發現,Google 的 AI Overviews 經常在搜尋結果最頂端提供誤導性健康資訊,對民眾構成實質危害。其中一項案例顯示,AI 曾錯誤建議胰臟癌患者「避免高脂食物」,這與專業醫療建議完全相反。英國胰臟癌協會主任 Anna Jewell 直言,這項建議「完全錯誤且非常危險」,因為胰臟癌患者若無法維持足夠熱量與體重,將可能無法承受化療或手術。
在另一個案例中,AI 提供了錯誤的肝功能檢測正常值範圍,且未考慮年齡、性別與族群差異。英國肝臟信託基金會執行長 Pamela Healy 擔憂,這樣的錯誤資訊可能讓重症患者誤以為自己健康,進而錯過後續就醫與追蹤檢查的時機。
《The Register》將這樣的發展形容為「醫療錯誤資訊的滑坡」(a slippery slope of medical misinformation),多位專家也因此提出警告。他們擔心,AI 摘要會複製甚至放大既有偏見、刻板印象與汙名化敘事。病人資訊論壇(Patient Information Forum)主任 Sophie Randall 特別強調,當這類資訊被放置在搜尋結果的最上方,本身就已構成「對民眾健康的風險」。
OpenAI 如何應對 AI 在醫療建議場景中可能帶來的風險?
面對 AI 在醫療建議場景中可能帶來的風險,OpenAI 正從技術防範、模型進化與政策推動三個層面著手,試圖將 ChatGPT 從通用型聊天機器人,轉型為醫療體系中更專業且受規範的「盟友」。
在可靠性上,OpenAI 強調回應必須能真正「落地」(grounding)於正確的醫療情境。為此,OpenAI 已設立專責團隊,並與臨床醫師合作進行安全性測試,以降低風險並持續優化輸出。
在模型層面,OpenAI 表示 GPT-5 在內部醫療基準測試中的表現優於過往版本,並大幅減少幻覺、緊急情境下的錯誤回應,以及忽略全球醫療背景等問題,同時也更傾向採取保守措辭,並在必要時引導使用者尋求專業評估。
除了技術調整,OpenAI 也正準備發布一套「政策藍圖」,希望影響美國醫療政策方向,包括推動公共醫療數據的安全整合,以及促請 FDA 建立適用於消費級 AI 醫療工具的新監管框架。不過,《Axios》仍提醒,當越來越多人在「沒有醫師介入」的情況下將 AI 視為醫療指引的第一站,準確性、法律責任與病患資料存取等問題,仍是社會必須正視的關鍵挑戰。畢竟,當全球每天有 4,000 萬人向 AI 問診時,如何確保這位「盟友」足夠可靠,已不只是個人或技術問題,更是攸關公共衛生的當務之急。
*本文開放合作夥伴轉載,資料來源:《Axios》、《Pymnts》、《The Register》、《The Guardian》,首圖來源:Unsplash
解鎖 3 堂 NVIDIA DLI 技能培訓課!立即報名 1/10【AI 人才年會暨 AI 職涯博覽會】,就能免費參與課程強化 AI 能力、為職涯加分