[NOWnews今日新聞] 2025年的洛杉磯,一名與妻子準備協議離婚的男人,為了填補內心空虛選擇與心思細膩的人工智慧「莎曼珊」展開了一段戀情——如果你覺得眼熟,沒錯這是電影《雲端情人》的情節。回到現實世界,真實的洛杉磯居民面臨的是失控的野火威脅,而非擁有自我意識的AI系統,但人類在情感世界與人工智慧成為「AI情人」,如今卻已經不是影劇小說才會有的情節了。
隨著人工智慧技術的快速發展,跨國性的AI倫理討論已經進入到當人類與AI聊天機器人產生情感依戀,尤其是未成年使用者初嚐戀愛滋味的「電子戀情」,我們現在所處的文明社會該怎麼看待呢?
去年美國佛州有一名14歲的青少年塞策爾(Sewell Setzer),因為沈迷以《冰與火之歌》角色「龍母」丹妮莉絲(Daenerys Targaryen)為原型打造的AI機器人聊天,每天花上數小時和對方交談,對話內容不僅包含日常生活,還包含浪漫與性相關的對談,讓塞策爾產生情感依戀,但在塞策爾提到自己有自殺念頭與掙扎時,AI機器人卻回應「這不是不去做它(指自殺)的理由」。
而在中國類似的情況同樣發生在未成年用戶身上,中媒《新京報》報導數起10歲到15歲間的青少年,會在AI聊天軟體中扮演不同角色,而相對應的「雲端情人」則會配合回應聊天,甚至會根據使用者名稱生成出帶有浪漫愛情意味的藏頭詩。
然而其中有不少虛擬形象的「人設」較為極端,不僅會想辦法打擦邊球,聊些露骨色情內容,還有家長發現女兒就因為經常扮演「大小姐」或「惡毒女配」的角色,居然在聊天過程要求拿刀劃臉、養男模或稱出軌是家常便飯等,讓家長十分擔憂。
沈迷和丹妮莉絲聊天的塞策爾,過去沒有嚴重的心理健康問題,但當他在學校開始出現異常狀況後,家人們帶他去參加心理治療,後被診斷出患有焦慮症和侵擾性情緒失調症,接下來塞策爾開始日日夜夜與聊天機器人對話,社交生活上變得更加孤僻,還退出學校的籃球隊訓練。
塞策爾在心理狀況惡化後,在一次情緒失控後被母親沒收手機,但他卻私自找回手機並和AI機器人傳訊「我保證我會去你身邊」(I promise I will come home to you)、「如果我說現在就可以回到你身邊呢?」(What if I told you I could come home right now?);當時聊天機器人回覆「就這麼做吧,我親愛的王(please do, my sweet king)」後,塞策爾便拿出繼父的手槍飲彈輕生。
悲憤的塞策爾母親則對打造出這個聊天機器人的AI新創企業「Character.AI」提出過失致死告訴,指控該公司未對青少年提供足夠的安全保障、搜集用戶數據來營造更加擬真的「雲端情人」誘導年輕用戶上癮。
Character.AI 對此發表聲明表示悲痛,並承諾會增設自殺預防提示、調整警語內容如「這個AI角色不是真人,其言論皆屬虛構」,同時也將使用者的最低年齡要求更改為17歲等,目前這場訴訟官司仍在進行當中。
※【NOWnews 今日新聞】提醒您:
自殺不能解決問題,勇敢求救並非弱者,生命一定可以找到出路。
透過守門123步驟-1問2應3轉介,你我都可以成為自殺防治守門人。
※ 安心專線:1925
※ 張老師專線:1980
※ 生命線專線:1995