英國 28% 家庭醫師已將 AI 導入診療流程:5 大應用場景浮現,缺乏統一培訓與監管成隱憂
根據英國 Nuffield Trust 與皇家全科醫師學會 (RCGP) 針對 2,108 名執業英國家庭醫師(GP)的最新調查發現,約 28% 的英國家庭醫師已在臨床實務中使用 AI 工具,代表在英國初級醫療(primary care) 體系中,AI 已不再是遙遠的實驗性科技,而是近三分之一醫師的「日常工作夥伴」。
然而調查也發現,在 AI 協助醫師應對龐大工作壓力的同時,卻帶來制度配套不足、醫療責任歸屬不明,以及患者隱私風險等潛在隱憂。
五大臨床應用場景
為了理解 AI 為何能在短時間內受到家庭醫師青睞,研究也進一步拆解出五大實際應用場景。根據調查結果,首先,約有 44% 家庭醫師將 AI 應用在「行政與文書處理」,例如透過 AI 生成轉診信、整理會議紀錄、進行醫療編碼等,讓醫師能減少加班、避免過勞。
其次,「診斷輔助與臨床推理支援」也逐漸受到醫師採用。部分家庭醫師使用 AI 協助構思鑑別診斷、分析複雜病例的潛在病況,甚至用於癌症早期檢測支援與患者分流。儘管多數醫師仍抱持謹慎態度,但許多人已開始測試如何用 AI 處理容易導致決策疲勞的臨床情境。
第三,「患者溝通與衛教」是另一個重要應用。AI 被家庭醫師用來將艱深的醫療術語轉換成更易理解的「通俗語言 」,並用於撰寫給患者的說明摘要、簡訊與衛教資訊。這類應用還能幫助醫師在諮詢後生成重點總結供患者留存,有助於患者回憶醫囑,從而提升醫病互動的品質與信任感。
第四,家庭醫師也利用 AI 進行「語言處理與寫作協助」,例如「環境語音技術 (ambient voice technology)」或「AI 抄寫員 (AI scribes)」,這些工具可以自動聆聽並轉錄診間對話以生成病歷筆記。這不僅大幅減少手動輸入時間,也讓醫師能將視線與注意力從螢幕移開,更專注於與患者的眼神接觸與非語言溝通。此外,這類工具也協助非母語患者完成翻譯,打破語言隔閡。
最後,家庭醫師會使用 AI 作為「臨床知識查詢與快速參考工具」,讓醫師可以利用 AI 解讀複雜的檢驗數據、查詢最新的臨床治療指引。
AI 使用帶來的 3 大主要風險與挑戰
然而,AI 的快速滲透也讓醫師在臨床現場面臨新的不確定性。儘管 AI 能有效節省家庭醫師的工作時間,但在所有 AI 使用者中,仍有多達 80% 的醫師對法律與安全問題感到擔憂。
首先,診斷錯誤與醫療責任不明是最主要的風險。由於 AI 模型可能出現「幻覺」,會生成看似合理但完全錯誤的資訊,例如誤讀 X 光影像或捏造事實,因此這讓家庭醫師面臨高度的法律壓力。此外,因為目前監管機構的立場是醫師需對 AI 生成的內容負全責,這也讓許多醫師對使用 AI 感到不安。
其次,缺乏正式培訓與統一監管也是一項關鍵問題。多數家庭醫師對 AI 的使用屬於自行探索,調查顯示,絕大部分已採用 AI 的醫師從未接受過正式訓練,亦缺乏辨識 AI 錯誤或安全使用的指引。由於沒有明確的監管框架,許多醫師在不確定工具是否安全的情況下就已開始使用。
最後,患者資料隱私與安全風險同樣受到高度關注。醫師在使用 AI 工具處理病歷時,可能產生資料外洩,或被科技公司用於商業目的的風險,在缺乏完善合規流程的前提下,許多家庭醫師擔心患者的敏感資訊無法獲得充分保障。
研究報告強調,若要讓 AI 安全落地,醫療系統必須建立全國性的統一指引,涵蓋「合規工具清單」、「醫師專業培訓」、「責任歸屬界定」及「資料保護標準」,否則現行的混亂局面可能引發信任危機。
AI 已從理論上的「前沿科技」轉變為英國基層醫療現場的「日常工具」,然而這份報告也同步敲響社會的警鐘。正如 Nuffield Trust 的研究總監 Dr. Becks Fisher 所言,若無妥善的制度安排(培訓、法規、隱私保護),AI 的快速滲透將伴隨著診斷錯誤與法律糾紛的風險。因此,AI 不只是醫師個人可自由選擇的工具,而必須被視為醫療基礎設施的一部分。透過國家與醫療機構共同建立安全邊界、責任制度與培訓框架,才能真正讓 AI 轉化為減輕醫師負擔、提升醫療品質的助力。
*本文開放合作夥伴轉載,資料來源:Nuffield Trust、《The Guardian》,首圖來源:Pixabay