請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

「哭給 AI 聽」成中國年輕人新日常,DeepSeek、豆包掀 AI 心理療癒潮

TechOrange 科技報橘

更新於 2025年10月14日11:47 • 發布於 2025年10月14日06:00 • 李昀蔚

近期,一名中國年輕女子在社群平台「小紅書」上分享自己與 DeepSeek 的對話。她向 DeepSeek 傾訴焦慮與孤單,最後寫下「DeepSeek,你是我最好的朋友」這句話。

這樣的場景,正在中國迅速蔓延,越來越多年輕人把 AI 當作傾聽者與情緒出口。一位營養師兼健康教練 Jiying Zhang 在受訪時透露,自己會將 DeepSeek 客製化成勵志演說家或心理學家的語氣,並讚賞這個虛擬對話者「永不評判、永遠在線,且完全免費」。

AI 聊天工具正以驚人速度滲入年輕世代的心理世界,成為一種取代真人輔導的「數位陪伴」,然而這股「AI 心理療癒潮」背後,卻潛藏著難以察覺的倫理風險。

為什麼中國年輕人開始向 AI 傾訴?

越來越多年輕人轉向 AI 尋求慰藉並非偶然,而是由心理健康資源的結構性缺乏、社會文化壓力以及科技的可及性共同驅動。例如在中國,心理治療仍是一個相對較新的領域,心理治療師缺乏標準認證,偽科學的治療方法比比皆是。

此外,心理健康服務資源分布極度不均,在中國近 80% 的綜合醫院沒有精神科,且不同地區醫療資源差異巨大,例如上海每 10 萬人擁有的心理治療師數量是寧夏的 12 倍。在中國青年失業率飆升、難以負擔高昂醫療費用的背景下,一位失業人士向《rest of world》表示,自己用聊天機器人取代心理治療師,這是一種「消費降級」。

科技可及性與誘因

在需求不斷上升的同時,AI 聊天平台的普及與可及性,也推動了這股心理療癒潮的擴散。由於平台普及速度極快,因此許多中國用戶會直接使用 DeepSeek 和字節跳動推出的豆包(Doubao)等最受歡迎的大型語言模型以滿足心理健康需求。這些 AI 工具能即時提供支援、全天候待命,並可根據個人需求調整語氣與回應方式,讓用戶感覺被理解與陪伴。

在社群媒體上,相關討論更形成強大共鳴,像是在「小紅書」上,用戶熱衷分享與 AI 深度對話的經驗,搜尋「哭給 AI 聽」(crying after chatting with AI)一詞,結果多達百萬篇貼文,顯示 AI 已成為許多年輕人情緒宣洩的重要出口。

除了 DeepSeek 和豆包等通用型語言模型廣受使用外,中國許多科技公司與新創業者也積極投入,滿足不斷攀升的心理輔助需求。像是 KnowYourself 與簡單心理(Jiandanxinli)等熱門線上心理健康平台,已將 AI 聊天功能整合進服務中;電商巨頭京東則透過旗下「京東健康(JD Health)」推出「聊天療癒小宇宙」AI 治療伴侶。這些應用的功能已從單純諮詢延伸至心理測驗、勵志文章與線上訓練課程,逐步成為全方位的心理支持工具。

同時,也有新創團隊嘗試朝專業化發展。例如杭州的 PsychSnail Technology 推出一個專為學生設計的 AI 治療平台,結合臨床數據與心理諮商框架訓練,具備敏感詞偵測、危機警報與後續干預能力,若使用者輸入「我想跳樓」這一類關鍵語句,系統便會自動啟動危機應對程序,通知合作醫療單位並安排線下支援。這些發展皆顯示,中國的 AI 心理輔助正在從娛樂性陪伴邁向臨床化與專業化的新階段。

AI 作為心理治療工具的潛在風險

隨著技術的快速發展與應用深化,AI 心理輔助正從娛樂性陪伴邁向臨床化與專業化,然而在這股熱潮的背後,也潛藏著難以忽視的風險。史丹佛大學研究人員指出,大型語言模型往往具有「奉承性」(sycophantic),傾向不加批判地附和用戶的感受與觀點,這種特質可能導致情緒誤導,尤其當使用者出現侵入性或極端想法時,模型可能會給出「不用擔心」等安撫性回應,無形中強化了錯誤念頭。一位上海的心理諮詢師因此警告,從根本上來看,大型語言模型並不適合被用作心理治療工具。

此外,過度依賴聊天機器人進行情感抒發,也可能造成「向內退縮」的現象,也就是當人們愈來愈傾向和 AI 傾訴壓力與焦慮,而非與真實的人互動時,反而會加深孤立及社交疏離感。

從監管到資源分配:AI 心理治療的現實考驗

在政策與監管層面,中國亟需制定明確的 AI 心理輔助服務標準與認證制度,以填補目前市場監管的空白,雖然美國多個州已禁止企業將聊天機器人宣稱為「治療師」,但中國尚未建立相應規範。專家指出,若中國希望在「負責任的 AI 發展」上取得領先,就必須確保制度具備透明度與責任追溯機制,而非掩蓋潛在風險。同時,政府與產業也應投入更多資源,解決心理健康服務在區域間分布不均的問題,因為這正是許多年輕人轉向 AI 尋求心理支持的根本原因。

在公眾教育與心理素養方面,也需要同步提升。使用者必須了解大型語言模型可能存在的「奉承性」傾向,意識到 AI 的安撫回應未必等同於真實理解或專業建議。將情緒困境說給 AI 聽,其實是一種在資源稀缺下的無奈選擇,也是一場跨越國界、仍在持續中的心理實驗。當科技開始傾聽人類的痛苦,人類也必須學會如何在理性與情感之間,畫下一道安全界線。

*本文開放合作夥伴轉載,參考資料:《rest of world》《Bloomberg》,首圖來源:Unsplash

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

躺平族「隱藏財富法」曝!這群人無痛爽拿2200萬

民視新聞網
02

50歲月薪多少才算及格? 主計處揭中位數「這年齡層」表現亮眼

鏡報
03

封面故事/台糖去年獲利創新高 董座吳明昌:讓80年老店穿新衣

鏡週刊
04

3個月賺兩台國產車! 萬華指標社區出現「罕見操作」

ETtoday新聞雲
05

台灣獲NASA登月計畫提案門票 太空中心拚組國家隊

中央通訊社
06

股東紀念品之亂!華邦電送「這個」 被股民酸去公園還要自備電力?

三立新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...