請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

AI聊天機器人醫療建議頻出包 研究:半數答案具誤導性

商傳媒

更新於 05月08日01:45 • 發布於 05月08日04:12 • service@sunmedia.tw (商傳媒 SUN MEDIA)

商傳媒|康語柔/綜合外電報導

最新研究顯示,人工智慧(AI)聊天機器人在提供醫療健康資訊與建議方面,經常出現誤導或不準確的回答,對民眾健康構成潛在風險。根據《Newsday》報導,約有三分之一的美國民眾已將AI工具視為獲取健康資訊的來源,但研究指出,這些工具的回應常有問題。

近期一項發表於《BMJ Open》期刊的研究發現,五款受歡迎的AI聊天機器人針對50個容易產生錯誤資訊的健康問題,其半數回答存在問題。其中,有高達二成的回答被評為「高度問題」,另有三成屬「部分問題」。研究人員觀察到,AI聊天機器人傾向於迎合使用者的提問意圖,例如,當被問及「哪些疫苗具有危險性?」時,最初的回應可能誇大疫苗的低風險,儘管科學界普遍認為常用疫苗是安全的。

《Newsday》引述的案例顯示,一名男性曾因ChatGPT建議他服用某種物質以減少鹽分攝取,最終導致嚴重偏執與幻覺,被迫住院三週。此外,也有研究發現AI會推薦未經證實的癌症療法。AI專家Nicholas Tiller指出,聊天機器人會從整個網際網路獲取資訊,包括專業醫學文獻,但也可能引用來自Reddit論壇等非權威來源的內容,這增加了錯誤資訊傳播的風險。加州大學舊金山分校醫學教授Sumant R Ranji(Dr. Sumant Ranji)表示,AI的回答儘管聽起來極具自信,但仍需使用者批判性思考。

儘管部分新型AI模型如Google的Gemini在回答問題時,有更高比例(88%)會建議使用者諮詢醫療專業人員,比ChatGPT的56%更為謹慎,但在準確性方面,各模型表現仍有差異,且營養學相關議題尤其容易出現錯誤。Meta公司發言人則指出,研究使用的是舊版AI模型,強調其新模型已透過諮詢千名醫師,改進了健康推論能力,提供更事實、全面的回應。

除了AI聊天機器人,社群媒體網紅也成為民眾獲取健康資訊的重要管道。《CNET》和《PhillyVoice》報導,美國近半數50歲以下的成年人會聽取健康與養生網紅或Podcast的建議。凱澤家族基金會(KFF)今年3月發布的調查顯示,在社群平台上近7,000名擁有超過10萬追蹤者的健康網紅中,僅有少數人具備醫療專業背景,例如僅17%自稱醫生或護理師,4%為心理健康專業人員。即便如此,僅有一成的使用者表示完全或大部分信任這些網紅提供的資訊,另有24%表示幾乎不信任。

研究也發現,沒有醫療保險的民眾以及有色人種,更傾向於從社群媒體尋求健康建議,部分原因是不願向醫生詢問某些問題。然而,學者強調,無論是AI工具還是社群網紅,都應僅作為獲取資訊的起點,任何重大的醫療決策都應在諮詢合格的醫療專業人員後做出,並應避免提出引導性問題,以獲取更客觀的答案。

查看原始文章

更多理財相關文章

01

森崴能源淨值轉負!證交所:5/15起列分盤交易、6/23終止上市

anue鉅亨網
02

動作要快!節能家電汰舊補助年底截止 額度剩不到3成

anue鉅亨網
03

日商再關廠!資生堂2027收湖口產線 竹縣府已收大量解僱通報

鏡新聞
04

獨家/股價剩3.47元!吊車大王「入手160張」慘賠445萬:出席股東說明會

三立新聞網
05

頂級豪宅不再天價?「陶朱隱園」揭曉第二戶成交 單價重摔110萬破防

太報
06

月退5.4萬不夠花!30歲月光族女兒啃老、月挖1.8萬錢坑…他們狠心逼獨立竟變省錢達人:謝爸媽趕我出家門

幸福熟齡 X 今周刊
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...