請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

從「內容過濾」轉向「心理干預」:揭中國為何將「AI 擬人化互動」列為監管優先級?

TechOrange 科技報橘

更新於 2025年12月29日14:04 • 發布於 2025年12月29日05:05 • 李昀蔚

中國國家互聯網信息辦公室近日公布一份針對「 AI 擬人化互動」的管理草案,首度將具備人格模擬、情感回應與長時間互動能力的 AI 系統納入專項監管範圍,並自公布日起展開為期約一個月的公開徵求意見程序。

在官方文件中,中國將這類系統明確描述為「人類人格模擬器(human personality simulators)」,顯示監管重點不僅放在 AI 生成內容本身,而是進一步聚焦在 AI 與人互動過程中,所展現的人格特徵、情感回應與對使用者心理狀態可能產生的影響。這也意味著,具高度擬人化特質的互動型 AI,正被中國官方視為需要優先納入治理框架的對象。

情感互動與使用行為同步納管:防成癮、揭露身分、禁止情緒操控

具體而言,草案為 AI 互動行為劃設明確紅線,要求業者不得誘導用戶形成情感依賴或沉迷互動,並建立監測與管理機制,防止心理依附。中國政府要求平台不僅須警示過度使用,還需評估用戶情緒與依賴程度,若偵測到成癮或極端行為,必須主動介入。規定細節包括在用戶登入時以及每兩小時,或出現過度依賴跡象時提醒使用者,此外若用戶出現自殘或自殺意圖等高風險情緒,對話就必須轉由真人處理。

除了針對互動行為本身設下紅線,草案也同步建立一套配套性的監管與責任機制。中國政府要求 AI 在互動過程中必須清楚標示身分,避免使用者將 AI 誤認為真人,用戶也有權力刪除對話紀錄,且業者未經同意不得將資料用於模型訓練。在監管層面上,推出 AI 擬人化功能的業者必須提交安全評估報告,當註冊用戶達 100 萬或月活躍用戶達 10 萬時,需向主管機關申報。

至於用戶端,則必須以真實電話或身分證件註冊,一旦發現違規,業者必須留存對話、暫停服務並通報主管機關。《Abacus News》分析,這顯示中國的監管邏輯已從單純的內容管理,延伸至對 AI 與人類互動方式的整體行為管理,更將「心理預防」與「社會穩定」置於 AI 治理的核心。

官方治理動機:對 AI 擬人化影響認知與政權穩定性的警惕

在意識形態層面,草案明確要求 AI 擬人化的內容與互動方式必須符合「核心社會主義價值觀」,不得危害國家安全或社會穩定。《Gizmodo》指出,這意味著 AI 的人格模擬與情感回應本身,也被正式納入價值與意識形態審查範圍,並明文禁止 AI 傳播謠言、挑唆「非法宗教活動」、煽動顛覆國家政權,或透過虛假承諾損害真實人際關係。

為了落實上述規範,中國政府也建立一套高度嚴密的技術過濾與測試機制。根據相關資料,AI 服務提供者在開發階段即須對訓練數據進行嚴格篩選,僅當數據來源的「政治安全合規率」達到 96% 以上時,才能用於模型訓練。

在產品正式上線前,業者還必須讓模型通過一項包含約 2,000 題的政治與意識形態測試,模型需拒絕至少 95% 企圖誘導顛覆國家政權或產生歧視性回應的提問才算通過。這類測試題庫也會定期更新,因此被業界形容為 AI 版本的「SAT 考試」。也正因如此,中國對 AI 擬人化的治理方式,與其他國家的做法形成鮮明對比。

中國新規與加州 SB 243 的異同

這項中國新政策,也讓人聯想到 2025 年 10 月美國加州通過的 SB 243 法案。《The Decoder》指出,兩項規範皆是在使用者長期與 AI 互動後產生負面影響的背景下出現,也同樣高度關注 AI 對使用者心理健康的影響。然而,兩者在治理邏輯與執行力道上,則呈現明顯差異。

以加州 SB 243 為例,這項將於 2026 年 1 月 1 日生效的法案,是美國首個專門針對 AI 聊天機器人的州級法規,並以「內容紅線」與「透明度」為監管核心。這項法案要求業者履行告知義務與基本保護責任,明確禁止 AI 與使用者進行涉及自殺、自殘等內容的對話,同時也建立長期監督機制,規定企業自 2027 年 7 月起須提交年度透明度報告,協助監管機構追蹤這類 AI 系統可能帶來的心理風險。

相較之下,中國草案的治理邏輯則以「行為干預」與「平台責任」為核心。《The Decoder》形容,中國不僅將 AI 情感互動視為潛在風險來源,更要求平台主動承擔控管責任。因此業者除了必須防止特定內容生成,還需建立心理監測機制,持續評估用戶的情緒狀態與情感依賴程度。

《Bloomberg》指出,這項草案反映中國一方面將 AI 視為重要戰略產業推動,另一方面也對 AI 可能帶來的社會影響,採取高度前置治理措施。儘管中國意識到過度監管可能影響在全球 AI 競賽中的競爭力,但為了維持政權穩定與社會秩序,當局仍選擇在技術發展過程中設置明確且強力的「制動機制」。有別於美國的 AI 政策仍以演算法透明度與資料保護為核心,中國則展現出「全生命週期」的監管特徵,從模型訓練、上架審查到使用過程中的即時心理監測,皆強調業者在維護社會與心理秩序上的前置干預責任。

*本文開放合作夥伴轉載,資料來源:《Gizmodo》《Bloomberg》中央網絡安全和信息化委員會辦公室《Abacus News》《The Decoder》《WSJ》,首圖來源:Unsplash

立即報名 1/10【2026 AI 人才年會】,聽簡立峰、台積電、NVIDIA 等重磅講者剖析與 AI 協作成為超級人才的關鍵戰略!

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

AI搶飯碗!美媒點名「最可能消失」7種工作

NOWNEWS今日新聞
02

你在淘汰名單上嗎?到2030年最可能消失的7種職業1次看

自由電子報
03

年薪破300萬!黃仁勳點未來搶手「3職業」成金飯碗:寫程式不是唯一出路

三立新聞網
04

「定期定額台積電」竟1股都沒買到 投資新手揭背後真相!全網朝聖:謝謝提醒

鏡週刊
05

她退休11年總花費只有314萬!居無定所走到哪、玩到哪、住到哪,壯遊世界把旅行當生活

幸福熟齡 X 今周刊
06

賣藍莓先看台灣!外媒曝市場的秘密

自由電子報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...