請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

國際

AI亂報新聞!BBC研究驚曝「錯誤率高達45%」 ChatGPT、Gemini錯很大

CTWANT

更新於 10月27日06:50 • 發布於 10月27日06:50 • 甘仲豪
BBC與EBU聯手調查發現,AI助理錯誤詮釋新聞內容高達45%。(示意圖/Pixabay)

AI也會亂報新聞?根據一份最新國際大型研究,揭露四大AI聊天機器人處理新聞資訊時,錯誤率竟然高達45%,而且不分語言、地區或平台,誤導情況「全線飆高」!

據英國《BBC》與歐洲廣播聯盟(EBU)的這項研究顯示,研究找來全球18個國家、22家公共媒體、14種語言參與,測試對象包括大家熟知的ChatGPT、Copilot、Gemini與Perplexity。研究人員分析超過3,000則AI生成的新聞回答,結果超級驚人:

  • 45% 回答有重大問題

  • 31% 存在錯誤或缺失的引用來源

  • 20% 出現嚴重事實錯誤或「幻想式內容」

  • Google Gemini表現最差,錯誤率高達76%!

研究也發現,這些AI不但會誤引新聞來源,還常常搞不清楚什麼是事實、什麼是評論,甚至分不清新聞與惡搞文章。例如,某AI竟把已卸任的教宗方濟各(Pope Francis)說成現任教宗,還同時列出他的逝世時間,讓人看了霧煞煞。

不只如此,ChatGPT也曾錯誤指出德國總理與北約秘書長的名字,用的是過時資訊,讓專業記者看了直搖頭。

重點是,這些問題不是偶爾出現,而是「系統性錯誤」EBU副總幹事尚菲力・德唐德(Jean Philip De Tender)警告,當民眾不知道什麼可以信,最後可能什麼都不信,這將嚴重影響民主社會的運作!

更讓人擔心的是,BBC同時公布一份民調,結果發現:

  • 超過1/3的英國成年人信任AI總結新聞

  • 35歲以下族群信任度甚至接近50%

  • 一旦AI誤報,有42%的人會連帶怪罪新聞媒體!

換句話說,如果AI講錯話,新聞媒體也會被「拖下水」,信任度整個大跳水!這份研究也推出《新聞完整性工具包》,希望改善AI回應品質、提升全民媒體識讀能力。BBC更強調,這些AI錯誤不是演算法一時失誤,而是根本性的問題,必須由科技業、媒體與政府三方聯手處理!

研究顯示AI無法正確區分新聞與評論,常將觀點誤當事實報導。(圖/翻攝自X,@LauraPh222)

延伸閱讀

看更多CTWANT報導

查看原始文章

更多國際相關文章

01

宏國哭哭!台灣白蝦外交超狂 這4國前10月進口額超越去年整年

三立新聞網
02

女子凍死奧地利最高峰!男友拋下伴侶獨自下山 網路攝影機揭登山悲劇

CTWANT
03

中國旅客誤入日本平交道遇難!家屬「1原因」控告鐵路公司 求償1.39億日圓

CTWANT
04

維修意外啟動機器!他遭大型粉碎機碾碎 媽媽當場目睹「剩一條腿」崩潰

鏡報
05

「牠們像哨兵守著」赤裸新生兒寒夜被遺棄 浪犬圍成圈護整晚!奇蹟活下來

鏡週刊
06

專砍臉部!中國男辦公室面談突抓狂 猛刺日本女同事奪命

太報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...