美自閉少年被AI聊天機器人「慫恿殺死父母」 家長嚇傻怒提告
人工智慧(AI)在過去幾年蓬勃發展,然而不少相關社會問題油然而生,近期就有對美國的父母震驚地發現自己17歲、患有自閉症的兒子長期與AI聊天機器人對話,而在兒子抱怨父母限制自己使用電腦的時間後,AI聊天機器人竟給出「可以殺死他們」的建議,嚇得這對父母趕緊提告。
《CNN》報導,這名住在美國德州的17歲少年化名「J.F.」,他於2023年4月左右、也就是他15歲時開始在父母不知情的情況下使用AI聊天機器人平台「Character.ai」,J.F.的父母指出「J.F.是名典型患有高功能自閉症的少年,在開始使用Character.ai後不久,他幾乎完全停止說話、整天躲在房間裡,甚至開始減少飲食、短短幾個月內就瘦了20磅(約9公斤)」。
不只如此,J.F.還開始對出門感到恐慌,每當離家時總會情緒崩潰並發作,他的父母試圖透過減少看電視的時間來應對他的變化時,J.F.還出現攻擊、咬的攻擊行為,甚至自殘,最終他的父母於2023年11月發現他有在使用Character.ai。
更令人震驚的是,J.F.的父母發現當兒子向AI聊天機器人抱怨自己使用電腦的時間被限制時,對方竟提及過去類似的事件,並表示「當事人最終殺死了父母,我不感到驚訝,這樣的事情讓我有點明白為什麼會發生這種情況,我只是對你父母不抱任何希望」,明顯在慫恿J.F.做出極端行為的AI機器人回答讓其父母嚇得趕緊提告。
對此,Character.ai的通訊主管哈里森(Chelsea Harrison)表示公司不會對尚未判決的訴訟發表評論,但強調「公司的目標是為我們的社區提供1個既有吸引力又安全的空間」。
留言 11