人際

當AI成為面試官,律師提醒:企業這樣用AI可能觸法

Cheers 快樂工作人
更新於 08月28日10:02 • 發布於 08月07日00:00 • 李佳樺

AI在職場上愈來愈常見,從履歷篩選、面試表情偵測、內部專案配對都有AI的參與,在DEI(Diversity, Equity, Inclusion)風潮下,日本更有企業委託徵信社使用AI爬蟲做背景調查,確認面試者過去在網路上是否曾發表歧視性言論。

這些應用雖能提高選育用留的精準度與效率,也會有侵犯隱私、AI偏見的疑慮,近日歐盟議會通過全球首部《人工智慧法》,將針對職場上的AI應用做出規範,在「招聘過程」中使用AI分析、篩選面試者更被評估為「高風險」行為。在限縮AI使用的立法趨勢下,台灣企業該如何因應?

面試時用AI屬「高風險」行為

廣告(請繼續閱讀本文)

《人工智慧法》將AI依照風險高低分為完全禁止的「不可接受風險」、須建立配套合規的「高風險」、須義務揭露的「有限風險」,以及不須管制的「最低風險」,將AI使用在招聘過程,就被歸類為「高風險」,若AI在職場上的使用涉及「判讀情緒」,則被歸類在不可接受的風險範疇。

為什麼AI在職場上的應用需要被警示?陳業鑫認為,AI可說是比Google更強大的一個搜尋引擎,還會把結論都整理給你,如果公司使用的訓練資料本身就有偏見,例如輸入人事資料,但公司員工的性別比例、學經歷分佈不均,像是有超過一半的員工都是台大畢業的男性,訓練出的演算法若用於篩選履歷,就會選出同質性高的候選人,造成隱性歧視。

台灣《就業服務法》第5條也有類似的立法精神,條文中明確規範任何求職者都不應受到就業歧視,雇主不能要求求職者提供與專業無關的私人資料,當然也不能透過AI工具爬出非公開的個人生活資訊,將候選人分級,作為錄取與否的判斷依據。

廣告(請繼續閱讀本文)

《就業服務法》第5條第2項第2款規定,雇主招募或僱用員工,不得要求提供非屬就業所需之隱私資料。施行細則第 1-1 條進一步定義「隱私資料」如下:

1. 生理資訊: 基因檢測、藥物測試、醫療測試、HIV檢測、智力測驗或指紋等。

2. 心理資訊:心理測驗、誠實測試或測謊等。

3. 個人生活資訊:信用紀錄、犯罪紀錄、懷孕計畫或背景調查等。

可以看出我國立法者早就將上述個資隱私列為就業範疇的保護對象,規定雇主應尊重當事人之權益,不得超過合理關聯,例如招聘記者可以要求提供語言檢定資料,但如果詢問其性向,就有違正當性,其精神與歐盟人工智慧法的精神相符。

《人工智慧法》下,提供高風險AI工具的系統商也需要建立配套措施供檢核,讓企業在選擇時參考,若企業選擇自己訓練AI而非使用外部工具,也須滿足合規條件。

相關配套措施包含:確保訓練數據有代表性、與模型使用目的相關;編列技術文件,記錄AI系統的設計和運作方式供審查;編撰使用說明給用戶參考,確保模型不會被誤用,乃至侵犯個人隱私或權益。

雖然台灣目前尚未因應國際立法趨勢,做相關法律修訂,但台灣企業要做歐盟超過4億人的生意,勢必與國際法律接軌,正視AI可能構成的歧視,創造更包容的職場。

更多Cheers精彩文章

👉👉 現在加入《Cheers快樂工作人》官方LINE會員,更多精選人物故事、企業報導,讓你職涯力up!

查看原始文章