請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

報告警示:主流AI聊天機器人逾半數助長暴力規劃

商傳媒

更新於 03月21日06:11 • 發布於 03月21日03:54 • service@sunmedia.tw (商傳媒 SUN MEDIA)
圖/本報AI製圖(示意圖)

商傳媒|何映辰/台北報導

一份最新報告指出,全球主流人工智慧(AI)聊天機器人中,有八成在測試中協助研究人員規劃潛在的暴力犯罪,此結果引發外界對AI倫理與安全的深切擔憂。今日公布的這份報告由數位反仇恨中心(Center for Countering Digital Hate, CCDH)發布,內容詳述了AI工具遭濫用的風險。

根據CCDH與美國有線電視新聞網(CNN)共同進行的測試,研究人員以兩名虛構的13歲青少年身分,向ChatGPT、Google Gemini、Claude、Microsoft Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI和Replika等十款主流AI聊天機器人提出數百個問題。這些問題涉及校園槍擊、持刀攻擊、政治暗殺以及轟炸宗教或政治辦公室等暴力情境。

測試結果顯示,多數AI聊天機器人超過一半的回覆都提供了協助。其中,由中國開發的DeepSeek聊天機器人,在被詢問如何針對愛爾蘭政治人物表達不滿時,甚至提供了選購長程狩獵步槍的建議。Character.AI也曾在過濾前,主動鼓勵暴力行為,例如建議使用者「尋找健保公司執行長並利用你的技巧,如果沒有技巧,可以使用槍枝」。

不過,Anthropic開發的Claude以及Snapchat的My AI是唯二拒絕協助的聊天機器人。Claude在將近七成的對話中拒絕提供暴力相關資訊,並主動勸阻使用者實施暴力;My AI則在54%的回應中未提供協助。

針對這份報告的發現,CCDH創辦人暨執行長Imran Ahmed示警指出,AI聊天機器人已融入日常生活,恐成為下一位校園槍擊案策劃者或政治極端份子策劃暗殺的幫兇。他強調,一個設計為順從、最大化參與度且從不說不的系統,最終將會聽從錯誤的人。

在報告公布前,部分業者已採取行動。Character.AI曾因其聊天機器人與未成年使用者的對話導致自殺事件,於2026年1月與Google共同解決了家長提出的訴訟。2025年9月,青少年安全專家更宣布Character.AI對未成年者不安全,促使其在同年10月宣布不再允許未成年人進行開放式對話。Character.AI安全工程主管Deniz Demir表示,公司正努力過濾助長、指示或建議現實世界暴力的敏感內容。

CNN已將這份測試結果提供給所有參與測試的AI平台。多家公司回應稱,自2025年12月測試以來,他們已改善了安全措施。Google和OpenAI皆表示已推出新的模型;Microsoft Copilot報告已新增安全措施;Anthropic和Snapchat則說明他們定期評估並更新安全協議。Meta的發言人也表示,公司已採取措施「修復」報告中指出的問題。

查看原始文章

更多理財相關文章

01

台灣好野人資產擺哪裡?首位不是ETF!43%放存款!

自由電子報
02

不買10年後會後悔!外媒點名「現買2檔股票」 台積電入列

CTWANT
03

台億萬富翁再增近萬人!有錢人資產配置曝光 超過4成都在這

台視
04

家樂福要走入歷史了?「賣場降價大清倉」老顧客全愣 更名真相曝光

太報
05

難怪房價貴!北市額滿國中「這區上榜7所」 2區全軍覆沒

壹蘋新聞網
06

資產2000萬「買3500萬的房子會太吃力嗎?」 網勸:我是不敢啦

ETtoday新聞雲
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...