請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

美少年迷戀聊天機器人後竟輕生 「AI伴侶」是蜜糖還是毒藥?

TVBS

更新於 2024年10月24日06:32 • 發布於 2024年10月24日05:11 • 劉哲琪
青少年使用AI的危險性引發討論。(示意圖/shutterstock 達志影像)

現代科技日新月異,如何保護子女心理健康不受到科技影響,成為父母間的熱門話題。美國一名14歲青少年,2月與沉迷的聊天機器人互動後走上絕路,少年母親怒向科技公司提告。此事件讓AI的安全性再次受到矚目,至於AI對我們來說到底是蜜糖還是毒藥,專家也給出評論。

綜合《紐約時報》等外媒報導,隨著AI科技進步,許多人開始用AI聊天機器人排解寂寞,甚至創造出「虛擬情人」。一名罹患輕微亞斯伯格症的美國14歲少年,2月傳出迷戀上「Character.AI」推出的應用程式中的AI生成聊天機器人,在與對方多次互動後選擇輕生,他的母親近日宣布將對「Character.AI」提出訴訟,怒控該程式助長少年對聊天機器人的沉迷,且在他表達輕生念頭時未能提醒任何人。

報導指出,AI陪伴應用程式正在蓬勃發展,且基本上不受管制。這些應用程式的用戶只要支付約10美元(約320元新台幣)的月費,就能創建自己的AI伴侶,或從程式預設的角色中挑選。他們可以與AI聊天機器人用文字訊息或語音聊天。這些程式通常是用來協助用戶排解寂寞。

「Character.AI」創辦人之一的沙澤爾(Noam Shazeer )去年在Podcast節目中表示,「對許多寂寞或憂鬱的人來說,此程式將提供非常、非常大的幫助」。報導指出,AI陪伴應用程式可提供無害的娛樂,以及有限的情感支援。許多用戶都稱讚這些應用程式的優點。

但這些程式對心理層面的影響大多未經證實,專家也認為對某些用戶來說,用AI取代人際關係反而會更感到被孤立。部分的青少年面臨困境時,可能會試圖用聊天機器人解決問題,而非尋求專業幫助。導致他們身心出問題時,AI伴侶無法提供他們需要的協助。

史丹福大學研究員梅波絲(Bethanie Maples)研究過AI陪伴應用程式對心理健康的影響,她表示「我不認為這種程式本質上有危險」。但她同時指出,有證據顯示對長期孤獨、憂鬱的用戶、以及正在經歷改變的人來說,這種程式恐導致風險,而青少年時常在經歷改變。

專攻心理學的信州大學教育學部準教授(雷同台灣副教授)高橋史表示,許多有煩惱的人難以找其他人諮詢,卻可以跟AI坦承一切。因此他認為AI能有效運用在心理諮商上。針對降低AI風險的關鍵,高橋認為人類必須要設計出一套系統來監控AI工具。為了兼顧安全性和用戶利益,他認為企業需要與專家合作,仔細推敲AI應擔任的角色,從而開發出合適的服務。

《TVBS》提醒您:

輕生解決不了問題,卻留給家人無比悲痛。請珍惜生命,請再給自己一次機會

生命線請撥1995;衛福部諮詢安心專線:珍愛生命,請撥打 1925(24小時);張老師專線:1980

立即加入《TVBS娛樂頭條》LINE官方帳號,給你滿出來的八卦和娛樂大小事!

查看原始文章

更多國際相關文章

01

台也緊張!黃金氣體「氦」拉警報衛福部:醫療優先

EBC 東森新聞
02

最高領袖點頭了!伊朗外長:願意與美國談判

NOWNEWS今日新聞
03

中東戰火熾輸油航道堵塞 菲律賓宣布進入國家能源緊急狀態

太報
04

驚傳自衛官持刀闖入!中國駐日使館遭「殺神」威脅 北京要求日方給交代

三立新聞網
05

列車進站前5分鐘「孕婦昏迷摔下鐵軌」 高中生急跳下軌道救人...結局超暖心

鏡報
06

她「連人帶椅」噴飛機外竟生還!乘客淚謝殉職機師:1動作救了全機

壹蘋新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 4

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...