AI 聊天機器人究竟安不安全?會不會具有潛在威脅與風險?這是許多人都疑惑的問題。日前 OpenAI 發布《GPT-4o 的安全措施和風險評估報告》,內容指出 GPT-4o 的風險等級是「中等」,報告同時也提醒使用者要小心對 ChatGPT 的語音功能產生情感迷戀。
GPT-4o 的風險評估為「中等」
GPT-4o 在 2024 年 5 月公開推出,在首次亮相之前,OpenAI 找來了外部紅隊演練工程師與資安專家負責找出系統潛在的弱點與漏洞,進而評估風險。這次的風險評估按照「網路安全」、「生物威脅」、「說服能力」以及「模型自主性」等四種類別進行,在這之中除了「說服能力」之外,其餘三項類別都被列為低風險。
「說服能力」其實就是指文字表達模式,它被列為中等風險。研究人員將由AI生成的內容與由專業人類撰寫的文章進行比對,發現 GPT-4o 的說服力並沒有超越人類撰寫的內容,但在進行測試的 12 個案例中,有三個例子顯示 GPT-4o 的說服力,超過了人類所撰寫的文章。
換句話說,研究結果認為 GPT-4o 生成的某些文字內容可能會比人類撰寫的文章更具有說服力。
OpenAI 發言人 Lindsay McCallum Rémy 向外媒《The Verge》透露,這份風險評估報告是由內部團隊和外部測試共同完成。外部測試者包括列在 OpenAI 官網上的模型評估與威脅研究(METR)和 Apollo 研究所。
OpenAI發布這些研究成果,主要希望能更透明地讓使用者了解風險,但也有部分使用者認為 OpenAI仍有改進空間。AI 開源社群平台 Hugging Face 的應用政策研究員 Lucie-Aimée Kaffee 就指出,GPT-4o 的風險評估資料中並沒有詳細說明模型的訓練資料,以及訓練資料來源的所有權問題。
小心對語音功能產生迷戀
除了風險評估等級之外,外媒《Wired》則是注意到《GPT-4o 的安全措施和風險評估報告》提到 GPT-4o 模型新增的語音功能更貼近人類說話的方式,也能偵測到語氣及表達情感,而這高度擬人化的語音有可能會讓使用者感生情感依賴。
尤其是在 GPT-4o 進行紅隊演練期間,OpenAI 研究人員注意到使用者與 GPT-4o 模型的聊天過程可能會傳達情感。舉例來說,使用者可能會對聊天機器人表示「這是我們在一起的最後一天」之類的話語。
OpenAI 表示,當 GPT-4o 模型產生「幻覺」接收到不正確的訊息時,高度擬人化可能會讓使用者更信任與依賴 AI 模型。然而隨著時間的推移,AI 模型有可能會影響使用者與其他人之間的關係。
《GPT-4o 的安全措施和風險評估報告》指出,使用者可能會與 AI 建立社交關係,降低他們在實際人際互動的需求,儘管對於孤獨者有益,但也可能會影響社交健康。
其實 OpenAI 並不是唯一一家發現 AI 聊天機器人高度模仿人類互動會產生風險的公司,Google DeepMind 也曾公開指出強AI 助理可能會帶來更多的潛在道德挑戰。
不過,往正向的方面思考,OpenAI 安全準備部門主管 Joaquin Quiñonero Candela 表示,GPT-4o 帶來的情緒影響可能是正面的,例如幫助那些孤獨者或需要練習社交互動的人學習互動。但是公司仍會密切研究 AI 模型擬人化和情感聯繫,監控 Beta 測試人員與 ChatGPT 互動。
▶ 延伸閱讀
圖片及資料來源:The Verge、Wired
神期楊$神乎期技$ 夭壽詐騙集團republic of 支那始終是炒地、炒房、炒股、炒匯、炒金、炒、、、、⋯⋯⋯的「賊頭」!💀
08月11日16:33
顯示全部