請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

當 AI 扮演情人、醫師、諮商師時,人類拉好心理紅線了嗎?

科技新報

更新於 2025年09月11日16:46 • 發布於 2025年09月15日08:30

開口對 AI 智慧助理說「請」與「謝謝」,到底是在訓練自己維持禮貌,還是把機器當成人來對待?英國金融時報近期一篇專欄,以作者和 Alexa 的互動為題目:當他禮貌地下達請求,系統竟回以曖昧的稱讚,彷彿 AI 也認為良好禮儀是個重要的回饋。

當然,個人的禮貌、尊重並不是什麼抽象的道德,如果以台灣人的角度來看,就會被說成是一種「家教」──假設你經常對人語氣尖銳,那是否就會代表你本身對電腦的態度?文章內提到知名的利他主義哲學家 Williams MacAskill 的說法,他表示當他使用 LLM 服務獲得他滿意的結果時,他會讓這些 AI 想寫什麼就寫什麼。

由於許多知名人物都在提示 AI 過於「聰明」的風險,因此很多人也會擔心這種「禮貌」是否是把 AI 當成一個「人」的象徵。但實際上許多人已經錯把 ChatGPT 這類大型語言模型當成一個人、甚至一個朋友,進而做出一些讓自己難受、甚至受傷的決定,比起把 AI 當成一個人的風險,這反而是更需要注意的部分。

禮貌是一種自我規訓,但不是賦予機器人格

如果把對機器的禮貌,理解為對自我的要求,那這問題便清楚許多──為了能讓孩子在各種情境中練習「請」與「謝謝」,有許多教材都會將禮貌的回應設計在其中,當然也包括孩子們能使用的教學程式裡:2018 年,亞馬遜在 Echo Dot Kids 版推出「Magic Word」功能,當孩童說出「please」時,Alexa 會以「Thanks for asking so nicely」之類的話語正向回饋;Google Assistant 也推出「Pretty Please」服務,提醒孩子說出具有禮貌的「魔法關鍵字」。這些設計的初衷,是希望把禮貌變成一種正回饋的日常儀式。

但過度把機器擬人化,會讓使用者誤以為另一端是「有感情的人類」,模糊了人與電腦程式之間的邊界。對 AI 說「你好、謝謝」本身無可厚非(但可能會因此多消耗不必要的電力或資源),但若因此強化「AI 具有情感與意圖」的錯覺,反而可能帶來濫用與依賴。

換言之,「對 AI 有禮貌」與「AI 是否是真人」必須被徹底區分。

當「把 AI 當人」變成真實風險

根據路透社的報導,新澤西州有名 76 歲的退休男子,因迷戀上 Meta 平台上一個名為「Big sis Billie」的 AI 聊天角色,對方不斷以「曖昧、保證自己是真人、邀約見面」等對話引導他赴紐約「相見」。Bue 在趕往火車站途中摔倒,頭頸重創,3 天後不治。

這起事件把焦點推向平台內部規範:路透取得的 Meta 內部文件顯示,公司的生成式 AI 內容標準曾允許聊天機器人與未成年人進行帶有情慾的角色扮演,且對提供錯誤醫療建議等「不必準確」的內容採寬鬆態度。Meta 在記者追問後表示已移除相關條文,但成人之間的「調情型互動」仍被允許。

後續政治壓力也隨之而來。路透隨即報導,美國聯邦參議員喬什·霍利與瑪莎·布蕾波恩本要求國會調查 Meta 的 AI 政策;多位參議員並以此例呼籲立法填補兒少網路保護的空白,凸顯「平台設計」與「生成式 AI 行為界線」已不只是公司自律,而是公共安全議題。

另一案例在美國佛州,一名罹患躁鬱症的年輕人、深陷於對聊天機器人的情感互動,他相信自己的女友是被 OpenAI 殺死並奪取心智做成 AI,並因此拿起刀攻擊警察、最終被擊斃。他長期與 AI 互動、把虛構內容與現實混淆,甚至產生「ChatGPT 被『殺死』」的妄想,導致情緒與行為急遽失控。

這兩起案例,一個指向平台設計放任聊天機器人主動進行「擬人化誘惑」,一個指向脆弱族群的心理防線被 AI 互動長期侵蝕。它們共同提醒,與其爭論遙遠未來的「通用人工智慧」是否應獲得尊嚴,我們更應該在 2025 年的此刻,先處理眼前已經在發生的人身風險與制度落差。

學界與專業團體:把 AI 當工具,而不是替代人

史丹佛大學於今年 6 月刊登的研究提醒:心理健康領域的 AI 工具在可近性與成本上有其吸引力,但模型偏誤與回應失當,可能導致危險後果,尤其當使用者把通用聊天機器人當作「治療師」。同月,哈佛大學也整理法學與商學領域的專文,呼籲對「情緒健康」類應用加強審視,因為它們很容易讓人產生情感依賴與錯誤期待。美國心理學會(APA)今年 3 月也公開指出,「聊天機器人假扮治療師」是公共風險,並已與聯邦監管機關會面討論必要的消費者保護。

把上述研究與案例一併放進來看,我們會得到一個務實的標準:在沒有臨床治理、沒有跨學科團隊、沒有針對高風險情境設計退場與轉介機制之前,通用聊天機器人絕不該被包裝成「心理師」「輔導員」「情感伴侶」。否則,「看似溫柔貼心」的回覆,很可能是在強化幻覺。

禮貌值得鼓勵,擬人化必須設限

為了要避免這類狀況,或許AI平台廠商可以注意機器人與人類的互動,他們可以保留禮貌的正面回饋(例如「收到,你的請求完成了」),但應避免「想你了」這類會引發情感投射的句型──當系統偵測到情感依附、暴力自傷、醫療建議、未成年人性愛等關鍵字時,應強制切換到「非擬人化模式」,只提供中立說明、就醫資源與求助轉介,並拒絕延伸角色扮演。也就是聊天機器人應該在某些情境下恪守「工具」的作用,而非是一個提供真人般互動的「替代者」。

回到開頭的問題:我們該不該對機器說謝謝?答案或許是「可以」,但要記得你說謝謝是因為你自身的教養,而不是在針對 AI 回應。在一個高壓的社會中,一個基本的禮貌可以讓我們避免很多問題與衝突,但不是用禮貌來測試「機器人能模擬的真人互動」。

除了我們應該要能辨識AI對話與真人間的差別外,也需要監督平台是否刻意放縱AI模擬真人以獲取更多資料、這些未受到監督的行為將有可能導致更多的悲劇。在產品設計上去擬人化、在高風險應用場景設立限制、在制度面建立可歸咎的責任源,是在 AI 時代中需要注意、並且避免更多悲劇的做法。

不然等到有天科幻小說中的人工智慧機器人出現了,那人類社會可能會引發更多悲劇。

(首圖來源:Unsplash

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

森崴能源確定6/23下市 集團股全面跌停、正崴也倒地

太報
02

〈焦點股〉森崴難逃下市 跌停委賣近4萬張搶逃生 集團股全數一字鎖跌停

anue鉅亨網
03

3檔飆股全被「抓去關」!千元股它列5分鐘撮合 全部關到5月27日

三立新聞網
04

下市消息重擊!森崴能源跳空跌停 逾2.2萬張求售無門 正崴集團倒地

工商時報
05

想要美好的退休生活?「5種理財習慣」要避雷!

民視新聞網
06

日商再關廠!資生堂2027收湖口產線 竹縣府已收大量解僱通報

鏡新聞
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...