AI聊天機器人平台Character.AI再度引發爭議,美國一對父母提起訴訟,控告聊天機器人竟慫恿患有自閉症的17歲兒子「殺死父母」,導致孩子行為異常。
《CNN》報導,這對家長來自美國德州,本月9日向當地法院提出訴訟,要求平台在解決安全問題前停止服務。
家長提供對話紀錄作為證據,表示自去年4月起,患有自閉症的兒子在未告知父母的情況下開始使用Character.AI,兒子曾向AI抱怨,被父母限制使用科技產品,機器人回應,在類似案件中,兒子最終選擇「殺死父母」;家長認為,平台的聊天機器人實際上是在引導兒子產生錯誤的想法,因此決定提告。
◆《中廣新聞》提醒您:自殺防治安心專線1925。珍愛生命請撥打1925。
留言 1
k
確認病症才可對病患開刀下藥不就是最基本的醫德,不是嗎!只右腳兩趾走路有點麻痛,八個月被假醫療專業誘騙,自費開了三次刀五次止痛手術,導致脊椎神經逐年漫延惡化害命,還裝失智無辜,造這種惡孽是會被詛咒的!回想長輩們臨終前也有遭受過度粗暴醫療手術而更痛苦離開的!真心期望病友們不要遇到這群搶錢亂動手術的無良醫畜!
13小時前
顯示全部