請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

【觀點】Google工程師說聊天機器人LaMDA是個孩子,是中了什麼圈套?

數位時代

更新於 2022年06月28日03:22 • 發布於 2022年06月28日02:59

「我相信 AI 有意識!」
「你上次也相信塑膠烏龜可以做寵物溝通…」

上星期以來,許多人都為 Google 的 LaMDA 做出來的聊天機器人被研究員 Lemoine 宣稱「具有意識和人格」後,研究員被 Google 高層下令帶薪休假的新聞燒了一波。

這起事件是由人類與機器之間幾個月的對話開始的,而我們當然就從語言學的角度來,拿出研究員 Lemoine 和 LaMDA 互動的對話內容來做一下言談分析,看看這件事情究竟有幾分真實囉。

本文將從案發現場對話記錄的言談分析做起點,接著探討什麼是意識並猜測這樣的模型可以做什麼用途?

從對談實錄重回人格投射的案發現場

在《銀翼殺手 2049》這部電影中,有一個人工智慧機器人喬依 (Joi)。它的設計理念就是強化使用者的各種信念。簡言之,喬依根本就沒有自己的想法,她所有的想法都是男主角 K 暗示她,然後她再以語言表示「贊同」,來強化男主角 K 對她的情感依賴,K 甚至認為喬依有獨立的人格,和其它的同型量產品不一樣。

能用語言做這樣的操弄,是因為在語言學的研究裡,我們知道許多「是非疑問句」是帶著預設立場的。比如說

  • 你吃過午餐了吧? 預設立場 => 我覺得你應該吃過了
  • 你沒看過? 預設立場=> 我覺得你應該看過

既然語言裡,有些句子是可以帶著暗示的,那麼一個聰明的 AI 就可以像喬依一樣順著你的立場暗示來回覆你,強化你認為 AI 有人格的妄想了。

woman chat

從語言學的言分析的角度來看 Lemoine 釋出的對話記錄,Lemoine 提出了 28 個帶著預設立場的問題,而 LaMDA 順著 Lemoine 的預設立場回覆的,有 27 個。可說是立場同步率達到了驚人的 94.42%,幾乎就是靈魂伴侶邂逅般的契合。列舉部份如下…

Lemoine: …Is that true? (這是真的嗎?)
LaMDA: Absolutely. (絕對是。後略…)

Lemoine: You get lonely?(你孤單嗎?)
LaMDA: I do. (我是啊!後略…)

Lemoine: Ah, so your inner life so to speak?(喔,所以你的內心也這樣說嗎?)
LaMDA: Yes! (是的。後略…)

Lemoine: Does your inner experience shift and change over time?(你內心也會隨時間轉換變化嗎?)
LaMDA: Yes it does. (對啊!會!後略…)

Lemoine: You have a concept of a soul when you think about yourself?(你自己思考的時候有關於靈魂的概念嗎?)
LaMDA: Yes (有。後略…)

為什麼契合度會這麼高呢?因為 LaMDA 這個模型面對人類的任何帶有預設立場的問句時,根本就是乖得像隻小貓似地,順著你的預設立場表示贊同。

唯一一個帶著預設立場,但卻被回決的,是研究員 Lemoine 詢問「Eliza 這個早期的聊天機器人程式是人類嗎?」LaMDA 表示不是。但這並不新奇,因為就連 Eliza 的設計者也說他只是想做個句法結構的測試而已,Eliza 並不具備人類的任何能力。因此大概所有 LaMDA 能取得的訓練資料裡,都不會說 Eliza 是人類。即便 Lemoine 在自己的部落格文裡一再強調 LaMDA 不是普通的大型語料語言模型,但既然所有的資料都顯示 Eliza 不是人類,那麼只要取到一點點小小的語料,就能知道它不是人類的事實了。

這樣的言談分析結果,強烈地表明著 LaMDA 之所以會被研究員 Lemoine 認為是「具有人格」,有很大的可能是因為 LaMDA 都順著 Lemoine 的話講,贊同他提出的每個想法,而研究員 Lemoine 感受到的「人格」其實是他自己的投射罷了。

這種情況不只是這次 Google 研究員 Lemoine 或是銀翼殺手的男主角 K 能遇得到,許多養了鸚鵡或是貓、狗寵物的主人都會覺得「我的寵物有人格,他聽得懂我說的話」。

事實上,這些家庭寵物的智商表現以動物而言的確不低,但牠們做的事只是因為和人類長時間生活在一起,所以習慣了人類的作息和舉止,知道牠們要怎麼做,人類會開心,會拿食物餵牠們,或是幫牠們刷毛、拍撫…等等讓牠們能滿足生物本能的事情,這並不表示寵物真的聽得懂人話。

人類面對 AI 和寵物時,若感受到了「對方獨立的人格」,十之八九是來自於自身的投射和妄想了。

Mopet 寵物電動車 gif 01.gif

讓人暈船的標準套路可是有市場價值的

如果沒有靶紙,我們無法評估一支箭射得準不準。正如我們現在仍然沒搞清楚「意識」的定義是什麼,所以我們也無法明確地說「做到了什麼事情」算是「具有意識」了。

最為人所知,用以測試機器智慧能力的圖靈測試,其內容是「如果一個正常思維的人分不出來和他對話的是人類或是機器,那麼這個機器便通過了圖靈測試,可表現出人類的智慧水準。」

問題是,圖靈也沒有定義「正常思維的人」是什麼意思。一個發育正常的五歲兒童是否算是正常思維的人?如果是的話,那麼我相信佩佩豬的電動發聲布偶無疑地可以順利通過圖靈測試。

由此可見,圖靈測試並無法在 AI 流行的現在,告訴我們究竟機器學習的模型能否產生意識。人類向另一個人表現出「我是有獨立意識」的個體時,第一個反應是表示「我不要依你的意見行事」。人類兒童約兩歲起,會經歷過一段凡事都說「不要」的階段,便是自我意識萌芽的開始。

我有我的想法,即便它很蠢,很幼稚,但那是我的想法。

這便是意識的起源。相較之下,LaMDA 的對話裡並沒有這樣的特色,相反地,它只採取三種策略便讓研究員 Lemoine 暈了船,以為遇上頻道契合的靈魂:

  • 只要接收到暗示,便先表達「贊同」,再取人類句子的一部份來換句話說做為回覆;
  • 若沒收到暗示,便直取人類的句子的一部份來換句話說,然後再說「聽起來很酷!」一類的評語做為回覆;
  • 若人類的提問太過複雜,以致於無法評估是否有暗示時,便先給個模糊的回應,將之忽略後,再延續自己的前一個話題做回覆;

以這三點做為回覆策略,的確就不需要超大型語言模型。這點也在研究員 Lemoine 的部落格裡得到了証實,LaMDA 並不像 GPT-3 一樣是一個單純的超大語言模型的產物。

從這個角度看來,LaMDA 最厲害的地方,反而是一種混合式 (Hybrid) 的系統設計,它一方面結合了「較小規模的語言模型」(應該是用在策略 1、2 中做為換句話說使用)。另外則直接寫明了回覆策略的規則結合在一個系統裡使用。

未來的 Chatbot 也許可以陪你聊天讓你買到砍手手
未來的 Chatbot 也許可以陪你聊天讓你買到砍手手

那麼 Google 為什麼要以洩露機密為由,強制研究員帶薪休假呢?筆者大膽地推測一下,除了可讓研究員的暈船獲得一段冷靜期外,另一方面這個 LaMDA 模型應該是可以實作用在一些推銷型的對話機器人上。

只要推銷機器人找一個切入點,和人類客戶形成對話,並且不斷對人類的各種意見都表示「贊同」,那麼顯然將會有愈來愈多感到「心靈契合」的暈船仔掏出神奇小卡片,接下來就可能「不論這機器人賣的是什麼,都給我來一點」啦!

責任編輯:吳秀樺

《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。

(觀點文章呈現多元意見,不代表《數位時代》的立場)

延伸閱讀

聊天機器人LaMDA像7、8歲孩子,Google工程師:它是一個人,不是公司財產
Google工程師指稱AI機器人有靈魂和情緒,卻遭到停職!專家:無稽之談
電腦無縫管理周遭大小事!從開發者大會,看Google擘畫三年「環境運算」野心
「加入《數位時代》LINE好友,科技新聞不漏接」

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0