請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI 時代,你還剩什麼無法被取代?UBER 故事的反思:高薪職務都重視一大能力

經理人月刊

更新於 02月13日09:22 • 發布於 02月13日08:00 • 萬維鋼

《權力與預測》這本書中有一個洞見,我認為有可能就是 AI 和人分工的指導原則。簡單說,就是雙方共同做出決策,其中 AI 負責預測,人負責判斷。

要理解這一點,我們先看一個真實的案例。美國網路叫車公司 Uber(優步)一直在測試自動駕駛汽車。2018 年,Uber 的自動駕駛汽車在亞利桑那州撞死了一個行人,引起激烈的討論。仔細分析這次事故,我們會發現,在撞擊前 6 秒,AI 已經看到前方有一個未知物體。它沒有立即做出剎車的決定,因為它判斷那個物體是人的機率非常低 — 雖然機率並不是 0。

AI 有個判斷閾值,只有在前方物體是人的機率超過一定數值的情況下,它才會剎車。撞擊前 6 秒,機率沒有超過閾值;等到終於看清是人的時候,剎車已經晚了。

我們把剎車決定分為「預測」和「判斷」兩步。AI 的預測也許不夠準,但是它已經預測出這個物體可能是一個人,它給出了不為 0 的機率。接下來的問題出在了判斷上 — 在這個機率上應不應該踩剎車,是這個判斷導致了悲劇。

Uber 的 AI 用的是閾值判斷法,這可以理解,如果對前方任何一個「是人的機率不為 0」的物體,AI 都選擇剎車,它就會在路上不停地踩剎車,這車就沒法開了。當然你可以認為這個閾值不合理,但是這裡總需要一個判斷。

請注意,正因為現在有了 AI,我們才可以做這樣的分析。以前發生過那麼多人類司機撞人的事件,從來沒有人去分析該司機是犯了預測錯誤,還是判斷錯誤。但這種分析其實是完全合理的,因為兩種錯誤性質很不一樣。

請問這位司機:你是根本沒看見前方有人呢?還是已經感覺到前方物體有可能是人,但是你感覺那個可能性並不是很大,又因為趕時間,你覺得這麼小的機率可以接受,就開過去了?

AI 時代的決策=AI 的預測+人的判斷

決策=預測+判斷。預測,是告訴你發生各種結果的機率是多少;判斷,是對於每一種結果,你在多大程度上願意接受。

關於如何基於預測的機率做決策,蒂姆.帕爾默(Tim Palmer)在《The Primacy of Doubt》(我翻譯為《首要懷疑》)裡舉了個例子。假設你週末有個戶外聚會,要不要為此租個帳篷防止下雨,這是你的決策。天氣預報告訴你那天下雨的機率是 30%,這是預測。面對這樣一個機率,下雨的損失是不是可以接受的,這是你的判斷。

通常來說,只要採取行動的代價(帳篷的租金)小於損失(下雨會給你帶來的麻煩)和機率的乘積,就應該採取行動,租個帳篷防止淋雨。但是在這一節的視角下,請注意,這個「應該」,應該理解成是對你的建議。

是否採取行動的拍板權還是在你手裡,因為那個損失最終是由你來承受的。AI 不會承受損失,用公式提建議給你的人也不會承受損失。在場來賓 — 是英國女王也好,是你岳母也罷 — 淋雨這件事是大是小,不是 AI 所能知道的,那其實是你自己的主觀判斷。

AI 很擅長預測天氣機率,但是判斷一個天氣狀況帶來的後果,需要更多具體的、也許只有你自己才知道的資訊,所以做判斷的應該是你,而不是 AI。

AI 時代的決策=AI 的預測+人的判斷。

也就是說,我們應該讓預測和判斷脫鉤。以前所有的決策都是人負責預測,人負責判斷,現在則應該是 AI 負責預測,人負責判斷。我們承認 AI 比人聰明,但是真正承受風險、體驗後果的是人,所以最終拍板判斷的必須是人。

AI 不能僭越人的判斷,人也不應該專斷 AI 的預測

如果你是一個企業主,聘請了一名非常厲害的專業經理人擔任你公司的 CEO,他在所有方面的能力都超過你,那你能把決策權都交給他嗎?

不能。因為公司是你的,萬一賠錢,賠的是你的錢。同樣的,AI 再厲害,也只能讓人類醫生承擔醫療責任,讓人類員警行使執法權,讓人類領導者掌握核按鈕手提箱。只有人能以血肉之軀承擔後果,我們只能向人問責。

預測是客觀的,判斷是主觀的。AI 不能僭越人的判斷,人也不應該專斷 AI 的預測。AI 與人各安其位,分工明確。

如何實施這個分工呢?一個方法是,人為給 AI 設定一個自動判斷門檻。比如自動駕駛汽車,我們可以規定,當 AI 預測前方物體是人的機率高於 0.01% — 或者 0.00001%也行,反正得有個不為 0 的數值 — 的時候就必須踩剎車。

這個判斷標準,這條線,肯定不是 AI 自己規定的,而是人事先設定的。你可以寫程式把這條線設計到 AI 中,但是下達這條程式指令的,必須是人,因為只有人能判斷人命的價值。對 AI 來說,人命的價值是無法用客觀方法估算的。

其實我們已經在用這種判斷了。以前你到商店買東西用的是現金,那個現金是真鈔還是假鈔,得由收銀員自己預測、自己判斷。現在你刷信用卡,那個信用卡是真卡還是假卡,不是由收銀員決策,而是由信用卡聯網系統根據演算法來預測和判斷的。

演算法會先評估這張卡是假卡的機率有多大(預測),再看看那個機率是否高於某一條線(判斷),然後決定是否拒收。那條線不是任何 AI 算出來的,而是事先由某個人類組成的委員會畫定的。因為線畫得太低得罪客戶的是人,線畫得太高承擔損失的也是人。

未來我們會面對各種各樣類似的事情,《權力與預測》這本書建議,這樣的判斷最好像評估一種新藥是否可以上市一樣,由一個像 FDA 這樣的機構來執行。

人類未來愈來愈重要的能力:判斷力

另一個方法是,把判斷量化成錢。租了一輛車,要去一個比較遠的地方,有兩條路線可選。第一條路線比較直,你老老實實開車就行,但路上沒什麼風景。第二條路線會經過一個風景區,對你來說是一種享受,但是風景區裡有行人,會增加出事故的機率。

如果 AI 直接跟你說兩條路出事故的機率有多大,你可能還是不好判斷。更方便的做法是,AI 告訴你,走風景區那條路,租車的保險費比走第一條路貴 1 塊錢。這 1 塊錢的保險費代表 AI 對兩條路風險差異的預測。

現在判斷交給你。如果你認為風景對你的重要性超過 1 塊錢,那你就走風景區;如果你對風景沒有那麼高的興趣,你就省下 1 塊錢。

你看,AI 無須了解你,也不可能了解你 — 是你在這 1 塊錢和風景之間的選擇,揭示了你的偏好。在經濟學上,這叫做「顯示性偏好」(Revealed Preference):人的很多偏好本來是說不清的,但是一和錢掛鉤就能說清了。

預測與判斷脫鉤,對人是一種賦能。以前如果你想去開計程車,可不是會開車就行。你得先學認路,你得知道這個城市中從任意 A 點到任意 B 點的最短路線是什麼(就是你得會預測),才能開好計程車。現在 AI 接管預測路線的事,你只要會開車就可以去開多元計程車了。

有了 AI,人會判斷就會決策。但這並不意味決策很容易,因為判斷有判斷的學問。生活中更多的判斷既不是由委員會畫線,也不能被量化成金錢,而是必須由個人對具體情況進行具體分析。這個結果對你來說到底有多好,或者到底有多壞,你到底能不能承受,該怎麼判斷呢?

有的可能是你透過讀書或跟別人學的,比如你聽說過被燒紅的烙鐵燙會很疼,你就會願意以很高的代價避免被燙。但是聽說不如親歷,只有真的被燙過,你才能知道有多疼。

判斷,有很大的主觀成分。而判斷這個能力正在變得越來越重要。

美國的一個統計顯示,1960 年只有 5%的工作需要決策技能,到 2015 年已經有 30%的工作需要決策技能,而且還都是高薪職務。

只有人知道自己有多疼,所以人不是機器。而判斷力和隨之而來的決策力,本質上是一種權力 ——AI 沒有權力。

(本文摘自《拐點:站在 AI 顛覆世界的前夜》,先覺出版)

延伸閱讀

AI 引爆裁員潮|富邦內部信曝光!蔡明忠:不會縮減人力、內部有「Copilot 計畫」
140 人的小公司,如何打造出 DeepSeek?梁文鋒的領導學:員工不需要被 push!
加入《經理人》LINE好友,每天學習商管新知

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0