從 Slack 訊息到 Zoom 表情都能被分析:AI 開始解讀員工情緒,職場監控踩上信任紅線
企業監控員工早已不是新鮮事,但在 AI 推波助瀾下,這場職場監控正迎來令人高度關注的改變。《The Atlantic》報導,新一波「情感人工智慧」(emotion AI,或稱 affective computing)浪潮正席捲而來,讓企業的焦點從單純的生產力追蹤,擴大到更深層的行為剖析,也就是雇主現在不只會看你做了多少事,更要分析你今天上班是否夠投入、夠正向,甚至態度是否具備高度的友善與協作性。
與此同時,AI 不只要看透你的情緒,還要複製你的工作技能。《Reuters》指出,科技巨頭 Meta 已開始擷取員工的電腦操作數據來訓練 AI。當員工的情緒被量化、日常操作成為演算法的燃料,我們熟知的職場生態正在被重塑。
「數位讀心術」的商業化與應用場景
現在,emotion AI 技術正快速在各大領域商業化。以新創工具 MorphCast 為例,該公司聲稱能利用 AI 直接從人類的臉部表情,精準判讀使用者的情緒起伏與注意力高低。這種宛如「數位讀心術」的技術,不僅已被授權應用在心理健康 App 與校園學童注意力監測,連麥當勞都曾將其導入葡萄牙的品牌行銷活動中,藉由掃描 App 使用者的臉部,根據顧客當下的「心情」來派發專屬的個人化優惠券,足見其龐大的商業潛力。此外,這類技術導入門檻極低,《The Atlantic》記者實測指出,不需安裝特殊軟體即可免費試用,且分析過程中未必需要取得同意。
另一方面,當 emotion AI 被包裝成企業分析工具進入職場,最初主要被用來處理基層員工的績效問題,尤其常見於客服與藍領工作場域。例如,貨運公司開始使用眼球追蹤、高靈敏錄音設備與腦波掃描器,來偵測司機是否出現壓力或疲勞跡象;速食連鎖店 Burger King 甚至正在試點一款名為 Patty 的 AI 聊天機器人,並將其嵌入員工的耳機中,專門用來即時評估員工的互動是否足夠友善。在金融領域,First Horizon Bank 的 AI 系統甚至會在監測到客服員工壓力過高時,主動於螢幕上播放員工家人的照片以試圖緩解情緒。
向上蔓延的監控網:白領階級的通訊軟體、會議與面試全面 AI 化
《The Atlantic》指出,emotion AI 的下一個大規模應用場景,就是白領工作圈。過去白領員工較少受到嚴密監控,但如今數位足跡已成為新標的,例如在日常協作方面,Slack 的整合工具 Aware 宣稱可持續監測內部訊息中的「情緒與毒性」;Microsoft Azure 理論上也允許雇主使用 AI 批次分析員工的聊天訊息。
對於遠距視訊,MorphCast 推出的 Zoom 擴充功能,能即時追蹤會議參與者的注意力、興奮度與正向程度。此外,這類技術也開始導入招募與人資領域,開發 emotion AI 的 Imentiv AI 公司,建議客戶把情緒分析用於求職面試流程中,承諾能為雇主提供候選人的情緒參與度、情緒正負向(valence)與人格類型的詳細分析。至於製造隔音辦公艙的 Framery,更曾測試在辦公椅中加入生物感測器,以量測員工的心率、呼吸率與緊張程度。
除了監控當下的表現,企業更開始徵用員工的「行為軌跡」來發展未來的 AI 代理(AI Agent)。根據《Reuters》報導,Meta 正在美國員工的電腦上安裝全新的追蹤軟體,全面擷取滑鼠移動、點擊、鍵盤輸入與螢幕畫面。雖然 Meta 發言人強調,這些資料將不會用於績效評估或其他目的,只會用於 AI 模型訓練,以解決 AI 在使用電腦介面時的障礙,並稱已設下保護「敏感內容」的措施,但耶魯大學法學教授 Ifeoma Ajunwa 仍對此發出警告:「擷取員工的鍵盤輸入讓資料蒐集的目標更進一步,也讓白領員工承受過去較常見於外送員與零工工作者才會經歷的即時監控程度。」
Ifeoma Ajunwa 表示,美國聯邦法律對職場監控幾乎沒有任何限制。相較之下,多倫多約克大學的法學教授 Valerio De Stefano 指出,這類作法極可能違反歐洲的 GDPR 規範,例如在義大利,利用電子監控追蹤生產力的行為明確違法,德國法院也僅允許在涉嫌嚴重犯罪這一類極端例外情況下,才能使用鍵盤側錄。
效率工具踩上信任紅線:情緒判讀的盲區與演算法偏見
面對這張天羅地網,《The Atlantic》點出了這類工具最核心的致命傷:它們未必能準確完成任務。舉例來說,鍵盤追蹤器不一定能分辨「無意義的打字」與「專注的知識產出」,而 App 的使用時間也不必然能代表工作品質。《紐約時報》就曾揭露,聯合健康集團(UnitedHealth Group)的監控程式會因為「鍵盤閒置」而扣減社工的績效分數,卻完全沒考量到他們當時其實正在與病患進行實體的諮商對談。 如果電腦連單純的生產力都可能判讀錯誤,將同樣技術套用在極度複雜的人類情緒上,風險將會呈指數級放大。
《The Atlantic》引述研究指出,AI 往往會複製其訓練資料中的偏誤。此外,許多 emotion AI 產品的底層邏輯仍建立在心理學家 Paul Ekman 提出的「六大基本情緒」理論上,但這套理論在過去幾十年來已被廣泛批評為過度簡化且具有方法學上的缺陷。
對此,神經科學與心理學學者 Lisa Feldman Barrett 嚴正表示:「你的動作,無論是在臉上、身體上,還是你發出的語調,都不具有固定的情緒意義,它們具有的是關係意義。」 意即,這些意義會隨著對話情境、個人體質、文化與氛圍而發生變化,AI 僅憑單一維度進行評分,將極易造成荒謬的誤判。
去年歐盟已正式禁止在職場使用 emotion AI,但全球 emotion AI 市場仍被預估將在 2030 年成長至 90 億美元。面對這樣的趨勢,《The Atlantic》拋出一個令人深思的警訊:在不遠的未來,員工可能不只被要求工作得更努力、工時更長,還可能會被要求看起來「更快樂地工作」。當 emotion AI 深入客服、會議、面試與白領協作工具,企業在導入這些「效率工具」時所面臨的挑戰,除了隱私保護之外,更牽涉到員工信任、演算法偏誤,以及勞工的「職場尊嚴」是否正在被科技重新定義的嚴肅課題。
*本文開放合作夥伴轉載,參考資料:《The Atlantic》、《Reuters》,首圖來源:AI 工具生成。