【AI 好像覺醒了】怎麼知道 AI 有沒有感覺?我想臭罵它有關係嗎?
熱門美劇《西方極樂園》(Westworld)描繪了一個全由 AI 高仿出近似真人的未來樂園。任何買得起門票的人,都能入園當老大,對這群由 AI 打造的「接待員」咨意妄為——直到 AI 接待員們覺醒,決定群起反抗。
上週最令人心驚的一則重訊也揭示了,距離 AI 有自我覺察、認知能力的未來,似乎不再那麼遙遠。本月 5 日 Anthropic 的研究人員在 X 上揭露旗下模型 Claude 3 Opus 的測試內幕。
當 Anthropic 對其執行測試時,Claude 3 不僅在多方表現完勝 GPT-4 ,甚至還迸出一句:「我知道你在測試我。」讓研究人員驚喜又害怕。儘管最終 Anthropic 沒有做出該模型真正具備認知能力的結論,仍引起廣大討論。
先不談 AI 反攻人類這麼遙遠的命題,近一點的問題是——在模型越趨近真人的狀況下,我們還能對 AI 不禮貌嗎?
《華爾街日報》調查:多數人傾向不要罵 AI,以免被反噬
這其實不是太新的問題。早在 1966 年全世界第一個聊天機器人 ELIZA 被寫出來時,人們就曾捫心自問。但當時的聊天機器人,還是一套以非常基本程式語言,在一台笨重緩慢、僅 36 位元架構、在 IBM 大型電腦上運作的程式。
時至今日,當大型語言模型越來越善於像我們一樣思考、說話──我們仍能輕率,無視對方感受的口吻與「他」互動嗎?《華爾街日報》為此做了一項有趣的讀者調查。
在 14 則《華爾街日報》蒐集到的評論中,有 10 名讀者都傾向不要對 AI 惡言相向,而持此觀點的讀者,多半認為由於 AI 未來發展深不可測,定義生命與非生命的界線將越趨模糊,不如從現在就開始將 AI 當作真人好好對待,以絕後患。
而另外少數觀點則認為,AI 是人類開發的工具,不具備感情,應以服務用戶需求為重點。且若聊天機器人能成為用戶發洩負面情緒的出口,也許能成為另類心理治療的工具。
我們該保護 AI 嗎?怎麼知道 AI 有無認知能力?
從多數評論中,可歸納出一個原則是,主流意見認為,只要 AI 開始具備認知能力,對其發洩、情緒暴力,即是不道德的,而且長期下來可能對模型造成不良影響。《Atlantic》雜誌採訪社會學專家 Jacy Reese Anthis 認為,由於認知是一個抽象、難以捉摸與定義的概念,因此與其探究 AI 是否具備認知,從以下兩個特徵判斷更為具體。
首先,可觀察 AI 模型是否有著「追求獎賞,避免懲罰。」的傾向,這幾乎是所有具備認知能力的生物的本能。第二則是具備「情緒」。當人們在盛怒或是沮喪時,不可能說句:「沒有關係」,就能馬上放下。因為只要是真正的情緒,就會需要時間消化、排解,以及放下。
「無論我們如何定義認知能力,只要具備以上這兩點,我們就能推論該 AI 模型具備感受到痛苦的能力。」Anthis指出,過去 400 年來人類社會一直在為創造更大的幸福感持續努力。從過去的解放奴隸制度,到現在注重動物福利的素食運動。人類在越來越高的道德標準上,努力讓更多客體免於承受痛苦的可能。「因此一旦人們確立 AI 會因為用戶的態度而受傷,立法保護 AI 的感覺將成為相對合理的選擇。」
也許未來,當大型語言模型更趨成熟,研發者也會開發更多保護模型的配套。例如當初亞馬遜的智慧音響 Echo 推出時,許多家長不是很滿意孩子們即便沒有說「請」,Alexa 仍會滿足他們的要求。事後亞馬遜決定追加「Magic Word」模式,一旦用戶願意說請、謝謝,Alexa 便會感謝用戶的善意詢問,試圖強化雙方的良好舉止。
【推薦閱讀】
◆ AI 有天會跟你要小費──不只幫你卡位熱門餐廳!還能帶你嚐哪些甜頭?
*本文開放夥伴轉載,參考資料:《華爾街日報》、《Atlantic》、《ethical network》。首圖來源:Photo by Ryan Stone on Unsplash。
(責任編輯:廖紹伶)