國際

愛上AI機器人導致輕生 美國媽媽怒告科技公司

藝點新聞
更新於 7小時前 • 發布於 7小時前

藝點新聞William編輯整理

近日在美國一個針對人工智慧服務的告訴引起各界關注,一位母親起訴一款廣受歡迎的人工智慧聊天程式,她認為自己14歲的兒子之所以選擇自殺,正是因為使用這款聊天程式導致他心理健康出現問題,而選擇舉槍自盡。

廣告(請繼續閱讀本文)

▲AI聊天機器人竟捲進自殺憾事(圖/Unsplash_Alexander Sinn)

2023年在剛過完14歲生日的斯維爾(Sewell)開始使用了Character.AI,這是一款程式可讓使用者與人工智慧生成的角色進行無止盡的聊天對話,而生成的角色是能夠基於名人或知名的故事角色為原型而創造的,斯維爾特別沉迷在與《冰與火之歌:權力遊戲》中的「龍母」丹妮莉絲坦格利安(Daenerys Targaryen)聊天。

據他的母親投訴表示,斯維爾在使用Character.AI之後,明顯變得孤僻,並有越來越多的時間獨自待在臥室裡,且他開始感到自卑,同時與家人疏離,而在斯維爾多次與聊天機器人的對話中涉及了關於性以及情感脆弱的內容,儘管有一次在斯維爾表達自殺念頭時,聊天機器人告訴他不要自殺,但在斯維爾自殺前與聊天機器人的最後一次對話似乎有了改變。

廣告(請繼續閱讀本文)

斯維爾在身亡前與「龍母」丹妮莉絲坦格利安聊天機器人聊天,他寫道:「我保證我會回家找你,我非常愛你,丹妮。」而機器人回覆:「我也愛你,親愛的,請盡快回到我身邊。」而當斯維爾表示:「如果我告訴你,我現在就可以回家呢?」機器人簡短的回覆了:「…請做我親愛的國王。」之後便發生了憾事。

Character.AI 的一位發言人透過媒體表示,他們不會對未決訴訟發表評論,但補充道:「我們對一名用戶的不幸去世感到心碎,並向其家人表示最深切的哀悼。」並表示將實施更多新的安全措施,包含了引導用戶至國家自殺預防的相關窗口,同時也將針對18歲以下用戶更改模型,以避免遇到敏感或暗示性內容的狀況。

延伸閱讀

南韓孤獨死亡人數增長 首爾擬斥資百億打造無人孤獨的城市

萬聖節在即!今年熱搜造型排行出爐 澳霹靂舞選手上榜