文/犁客
大家都知道有個東西叫「圖靈測驗」,細節不詳述,簡單說,它是個「確定和你對話那方是不是人」的測驗──對方如果不是人,那就是人工智能(這是個統稱,它可能是硬體組成的機器人也可能是軟體系統,總之是人造的,不是鬼啦)。
圖靈測驗是數學家圖靈在1950年提出的,他預測在2000年左右,電影就能在五分鐘內騙過三成評審,屆時我們應該就要判定「電腦能夠思考」。
這個預測並未成真,而且在關於「聊天機器人」之類程式的相關發展當中,曾經出現過幾次插曲,讓人好奇該怎麼評價──例如甲連線後和乙吵了半天架之後憤而離線,但那個「乙」其實是個程式,只會用「嗯」、「啊」、「重覆甲的輸入字句」以及「罵髒話」幾種方式組合回應,所以甲越講越火大,卻一直沒發覺乙其實根本什麼實質內容都沒回應。在這個例子裡,乙好像通過圖靈測驗了(甲從頭到尾沒發現乙是個初階聊天程式),但我們實在很難認定乙是個有思考能力的程式。
「人造之物能不能思考」這事推遠一點,會觸及「人造之物有沒有自己的意識」這事──如果只是能夠處理人丟進來的資訊,感覺上不算能「思考」,這就和計算機能按我們的指令做算術一樣──必須得能「自己想」到什麼事,才算是能「思考」,而要「自己想」,就得有「自我意識」。
而「人造之物有沒有自我意識」這事,自然觸及「那這樣的人造之物算是『人』嗎?」的問題,接著就得回頭自省「所以到底要滿足哪些條件才能算是『人』」?
身而為人,這問題似乎是廢話,因為我們天生就是如此;但當人造之物與人越來越相似、越來越接近時,這問題就不再是廢話了──倘若它們符合「人」的條件,那麼就算它們是人造之物,人類社會是否要把它們視為「人」(例如它們是否就不能被買賣)?是否要給予它們「人」在社會中的權利與義務(例如它們是否要拿薪水也要納稅)?它們如何遵守人類的法律規定(一個機器人毀掉另一個機器人是不是犯了殺人罪)?或者,人類的法律要以對待「人」的方式保障它們的權益嗎(機器人可不可以繼承一個人的遺產)?
故事的創作者一直透過各種故事討論「人造之物(常見的是機器人或人工智慧)怎樣才算是『人』?」,背後的企圖其實是討論「人到底是什麼東西?」,或者「人的自我意識究竟是什麼?」;這些故事有的明快有趣,有的雋永哀傷。
而有的,像《告別》,則在篇幅不長的故事裡,輕巧地串接了多個不同議題,從親情到友情,從鬥爭到逃亡,從律法到哲學,從生到死,再到更廣大的意識集合──在那處,來自「人」或「人造之物」的自我意識,或許並無不同。
人造之物終將毀損,但人的肉體也終會停止運作,無論是金屬塑料還是肌肉血管,它們全是意識的物質載具;而在告別物質載具之後,所有愛與回憶的意識,是否就會在那裡重逢?
▶▶看看【韓國國民作家睽違9年最新長篇小說《告別》,金英夏寫作生涯最溫柔作品,最人性的科幻故事!】
▶▶看看最新上架的電子書!
留言 0