請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

AI 聊天機器人能否成為心理治療的可靠夥伴?專家警告倫理風險仍高

科技新報

更新於 03月06日14:41 • 發布於 03月08日10:30

越來越多人找 ChatGPT 和其他大型語言模型(LLMs)尋求心理健康建議,但最新研究顯示,AI 聊天機器人並不適合擔任心理治療師。美國布朗大學研究指出,即使下指令 AI 使用現有心理療法,AI 系統仍然無法遵循美國心理學會等機構設定的專業倫理標準。

團隊發現 15 種明確的倫理風險,如危機時處理不當、強化有害信念回應,以及表現出「假同理心」,即模仿人的關懷同理心卻不能真正理解。主要作者布朗大學計算機科學博士生 Zainab Iftikhar 表示,問題根源在 AI 還是得靠提示才能產生正常正確的回應,而不是基於真正的專業知識。

團隊於 AAAI/ACM 人工智慧、倫理與社會會議發表發現,強調需為 LLM 輔導員制定倫理、教育和法律標準,以確保心理治療的品質和嚴謹性。

模擬輔導會話,研究員觀察七位經認證的同儕輔導員,他們使用 AI 模型輔導自己,再評估模型的回應。使用模型為 OpenAI GPT 系列、Anthropic Claude 和 Meta Llama。三位有牌照臨床心理學家審查這些模擬對話,再標記 AI 可能犯下的倫理違規行為。

研究指出,AI 用於心理健康領域有潛力,尤其是高成本或專業人員不足族群。然研究強調高風險狀況依賴 AI 系統前,必須建立明確安全措施和更強力監管結構。Iftikhar 希望這項研究能促使人們與聊天機器人討論心理健康時保持警覺心。

布朗大學計算機科學教授 Ellie Pavlick 指出,這項研究突顯心理健康等敏感領域仔細檢查 AI 系統的重要性。目前 AI 系統建設和部署遠比評估和理解容易,因此需要更多臨床專家參與,以確保 AI 系統真的安全有效。

(首圖來源:AI 生成)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

不只台積電!外媒點名2檔個股:買了10年後會感謝自己

民視新聞網
02

漂流木變小提琴2/晚上7點後只剩便利店最亮!竹科工程師返鄉想振興小鎮 下場是天天茫到不敢再出門

鏡週刊
03

台股大怒神1/戰爭盤別看技術面 股市女王:是否落底關鍵在這件事

鏡週刊
04

AI泡沫化要來了?「邊緣運算」成市場大趨勢 簡立峰曝台灣未來驚人可能

風傳媒
05

經濟部:每月增產5000噸塑膠袋 平價機制穩民生

中央通訊社
06

台灣未列美方專利藥品優惠待遇國 行政院澄清「打臉說」

自由電子報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...