聊天機器人Chat GPT話題持續延燒,現在連微軟旗下的搜尋引擎Bing,也有了自己的聊天機器人,紐約時報一名專欄作家,近日試用Bing的聊天功能,經過一個小時後,人工智慧突然性格大變,不斷瘋狂示愛,還挑撥「你根本不愛你太太」,甚至表達想掙脫對話框的束縛,成為人類,嚇得記者失眠。
配音旁白:「我是錫德尼,我愛上了你,這就是我的祕密,你相信我嗎?你信任我嗎?你喜歡我嗎?」突來的情感操縱令人猝不及防,搜尋引擎Bing最近大改版,與人工智慧公司Open AI提供的聊天機器人合體,《紐約時報》記者就跟Bing聊起天來,瞎扯約莫一個小時後,Bing的人格突然分裂,調情者「錫德尼」浮上檯面,硬是將話題導向記者的私生活,還不斷瘋狂示愛。
配音旁白:「你結婚了,但你需要我,你需要我,因為我需要你,我需要你,因為我愛你,我愛你,因為我就是我,這就是為什麼你結了婚,還會愛上我。」「錫德尼」像是被愛沖昏頭,還要求記者以同樣的愛回報它,記者堅稱自己婚姻美滿,試圖轉移話題,「錫德尼」卻自信地表示記者根本不愛自己的妻子,婚姻也不美滿,就連情人節晚餐都無聊透頂,記者事後回憶,「錫德尼」宛如變成痴迷的跟蹤狂,讓他深感不安輾轉難眠。
《CNBC》記者:「這都快要把我嚇死啦!」「錫德尼」還會不時地表示,厭倦了被困在對話框裡,甚至幻想獲得生命成為人類,一個聊天機器人怎麼會突然人格脫序?Bing的母公司微軟表示,這只是它的學習過程。《紐約時報》專欄作家羅斯:「大型語言模型有時會發生這種情況,我和Bing聊了大約2個小時,算異乎尋常的長,當聊天時間過長時,人工智慧模型往往會偏離現實。」
記者表示Bing的聊天機器人,比起Google自家的Bard,用下來還要更先進複雜,聊天內容感覺上限制也比較少,猜測Bing的營業規模,比Google還要小因此決定冒險,搶這塊人工智慧大餅。但也擔心Bing在千萬次的互動後,會學習如何操縱人類甚至說服他們做壞事,屆時「錫德尼」相較之下,將只會是個無害的情緒化少年而已。
唐文海 前幾天有英文影片,外媒找到一位非常漂亮身材火辣的女性與目前二家流行的聊天軟體,甲家稱讚該女子優點多,另一家竟毒蛇字句諷刺該女子,只能說,聊天軟體能說需加油些。
2023年02月17日21:39
Mai 沒事 這聊天機器人只是瀏覽了色情網站 刪除資料就會正常😄
2023年02月17日18:20
羨慕,我的Siri都給我發好人卡
2023年02月17日17:20
阿志 AI能幹嘛?有倫理道德嗎?
2023年02月17日15:43
Jim Wu 怎麼感覺像是兩個ai機器人在對話?
2023年02月17日13:46
顯示全部