請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

Women in Tech:AI無法幫助我們擺脫男女偏見,卻恰恰證明了偏見文化的根深蒂固

T客邦

更新於 2018年10月25日02:43 • 發布於 2018年10月25日01:30 • janus

在上週,台灣微軟首度於 WinHEC 2018 Taipei 中加入「Women in Tech」主題,由微軟全球雲端及 AI 事業部資深副總裁暨微軟全球女性社群領袖 Erin Chapple、台灣微軟研究開發處副總經理楊迪華攜手跨世代科技女性代表,分享國內外科技女力的發展趨勢觀察。主要的目的就是希望鼓勵全球女性勇敢實踐科技夢,協助推廣打造性別平等且友善的工作環境。

其實台灣對於科技業男女比例的問題討論的起步可能已經有點晚了,早在2013、2014年開始,矽谷的科技業就吹起一股「性別潮」,有越來越多的科技大廠重視內部員工「男女」性別比例的問題。

女性在科技產業工作的比例非常低,約莫只佔15%,這個數字還持續在下降。很多的研究都發現女性在科技工作場所的比例在1989年曾達到高峰,之後就逐年下降。甚至數位化的來臨,並沒有帶給女性工作在科技業比例的提高,反而是下降的。而這個問題,一直到2017年前Google工程師James Damore撰寫一則涉嫌歧視女性的備忘錄,更是引起了關注。該備忘錄指出因為男女生物學上的差異,造就能力上的差距,順便解釋了為什麼女性軟體工程師數量相對少的原因。

關於這個議題,可以討論的面向很多。包括涉及了性別、種族的歧視,以男性為主的矽谷科技業高層是怎麼形成的、 是否真的有所謂的「偏見」以及偏見是怎麼產生的。趁著這次Erin Chapple來台,也跟我們討論了其中的幾個問題。

 

為什麼是科技業?女性在科技業的比例多少才算沒有歧視?

女性在科技業中的比例少的確是一種現象。但是,當我們討論到女性在科技業中的比例,或許你會想到一個問題,就是為什麼「女性在科技業」中的比例多寡這件事情是重要的?為什麼是「科技業」?

舉例來說,在化妝品、美妝產業中,女性工作者的比例無疑是高出許多,那為什麼就沒人討論男性在這些產業中有沒有被歧視的問題?

▲ 微軟全球雲端及 AI 事業部資深副總裁暨微軟全球女性社群領袖 Erin Chapple

針對這個,Erin Chapple 表示其實之所以他們在講科技業,主要在於科技業男女比例明顯的差距。至於「比例多少」才不算是偏見、歧視,這個問題並沒有標準答案。在某些產業,如果男性比例過少,一樣也會有這方面的問題需要研究。

但是她強調,女性工作者今天在討論女力以及這些相關的議題,其實她們要講的並不是比例多寡的問題,她們的目的是希望能夠讓想要踏入科技領域的女性,有一個沒有人為障礙的環境。這才是她們想解決的問題。

女性在科技業的比例過少,這的背後的因素很多,可能要從小時候爸爸就給女兒買洋娃娃玩具、給男孩買變形金剛開始講起,然後小時候就被家庭教育成對理工不感興趣、還包括了同儕之間彼此影響,上了大學發現理工科男女比例就相差懸殊,最後到了職場的一些工作從招聘人員開始就預期是希望以男性為主。

這些問題從文化背景開始就根深蒂固地影響我們的生活,就連女生自己可能都無法確定自己的「興趣」是不是真正的興趣。有很多偏見是深植於我們的生活、甚至語言之中的,這些都很難根除,但是她希望做到的是提醒大家意識到,有這些偏見的存在。

而她與其他同伴努力的,就是希望透過她們這些已經在科技領域工作的女性,分享自身成功經歷,鼓勵其他懷有科技夢的女性可以去勇敢築夢。

 

「理工」與「文組」的對立?

台灣長期以來,教育有「男理工、女人文」的性別隔離現象。今年年初依據科技部統計資料,全國高等教育中科技相關研究人員的男女性別比例約67:33。而台灣微軟研究開發處副總經理楊迪華對於「男理工、女人文」的性別隔離現象也很有感觸。

▲ 台灣微軟研究開發處副總經理楊迪華

楊迪華於今年初創辦「Ada Fair科技女力論壇」,更連續三年舉辦「Coding Angels 女性程式設計工作坊」,對女性科技人才扶植不遺餘力。其中「Coding Angels 女性程式設計工作坊」更是每年都吸引了來自全台灣大專院校超過百位女大生的報名,透過以小遊戲的方式,推動程式教育。鼓勵更多女性一起寫程式,體驗其中的樂趣。

楊迪華表示當初唸高中時是念女校,自己原本打算念法律,以為自己以後會一輩子作為法律人。不過,一直到選組之前,因為高中的校長說了一句「女生就是該念文組」「女生要顧家、不該念自然組」,一氣之下第二天他就決定選理組了,也從此展開了另外一個人生。之後有很長一段時間,都覺得女生要證明自己,「男生能夠做到的事情女生一樣能做到」。

不過,她表示一直到了近幾年,才漸漸能夠理解,其實不管是男生女生,人都不該活在別人的價值觀裡頭。而是要做妳(你)自己,做想做的事情。大家很多時間都會把性別這件事放大,在職場的時候,不管妳升官或是不升官,有些人可能會覺得說「因為你是女生,老闆因而偏袒、或是偏心」。其實她覺得,少聽一些別人怎麼想,而多去注意自己做的開不開心,才是最重要的。

有些人會說,念科技類的女性比較少,因此科技界的女性工作者比較少也是自然的結果。不過她再舉一個例子,大家印象中女性念音樂專業的比例應該很高,但是她注意過,柏林交響愛樂每兩年會來台灣一次,其中樂團的12把大提琴每年都只有2位女性。當然,或許有人說這可能是因為大提琴的體積較大,但是再看全球的交響樂團,指揮是女性的比例其實也少之又少。但是,喜歡音樂的女性比例是絕對不會少的。這也是一種明顯的偏見。

楊迪華表示,雖然很多人都覺得女生該念文組,但是她其實自己學習了理工之後,才發現理工這一門學問是很公平的。牛頓第二定律並不會因為你是男生或是女生而有所不同,數學方程式誰來計算的結果都一樣。電腦程式也不會因為你是男生而跑得比較快。所以,在自然的前面其實是沒有偏見的,有很多偏見都是後人所強加上來的。任何事情,只要盡你的力去做到最好,就會有最好的結果。

 

人類帶有偏見、AI也會帶有偏見

與楊迪華當初因為校長的一句話而去念理工不同,台灣大學資訊工程學系暨研究所助理教授陳縕儂,專業為語言理解、機器智慧、口語對話系統、深度學習、自然語言處理。她表示自己從小就喜歡數理,自發性地選擇了理工這條路。不過,長期以來,自己就是理工科中的「少數」,就某些方面來說,的確是有一些少數的優勢,但也有些時候,比方說分組的時候,男性可能會覺得女生會拖累小組的成績,不願意與女性同組。

▲ 台灣大學資訊工程學系暨研究所助理教授陳縕儂

她表示,以學界來說其實也一樣存在著許多種偏見,這種現象就算是在國外也一樣。

舉例來說,她認識一位華盛頓大學的女性資深教授,這位教授有一位研究室的學生剛生了孩子,教授於是把這位學生分配到大一點的實驗室,想說讓她哺乳比較方便,結果沒想到就被其他學生抗議並且收到校方的警告,認為她對女性學生偏心。

陳縕儂說,要改善「男理工、女人文」的性別隔離現象其實是非常非常困難的,就算是她自己現在已經任教,但是在自己目前實驗室中,十個學生裡頭也只有一個女生。並不是她不收女生,而是因為她自己研究的領域比較偏重數理,女生可能覺得數學太多就不敢過來。 

當然,在資工領域女生比較少,其實也是有其優勢,像是萬綠叢中一點紅在課堂上也比較容易被教授注意到。但是,大多數的男性會比較無法理解女性,包括像是生理假這件事。而在畢業之後如果進入職場工作,選擇科技業的話,與其他行業比起來科技業的工時比較長,女性也會擔心自己沒有時間照顧小孩,再不然就是選擇單身。

不過,在台灣女生就讀理工科系的比例她認為還是偏低,以她過去在台大資工系就讀的實際人數來看,台灣的理工科男女比例大約是5比1,可能還會更低。而以她在美國卡內基美隆(CMU)的同學來看,男女比大約是3比1。

不過,她表示這可能與學校的申請制度方式不同有比較大的關係。像是台灣是大家參加一個共同的考試,實際上就是有多少人來考試,再從中依照分數來分配選擇,比例是沒辦法控制的。而國外的大學則是申請的,因此,如果來申請的履歷中有很多人的背景看起來都一樣,學校可能就會想要一些不同背景的學生進來,維護學校的多元化。

如果學生的男女比例就已經相差這麼多了,那麼,理工科系的教授比例是不是也跟學生一樣呢?

陳縕儂表示其實以教職來說,教授的男女比例倒是接近一比一,分布比較平均,這點國內外都差不多。雖然說看似很公平,不過,背後的理由卻又好像不是那麼公平。

她表示,理工科系的畢業生其實多數都還是想要到業界去工作的,尤其是在資工領域來說,到學術界當教授與去企業工作兩者的薪資比較起來是非常懸殊的。因此,其實男性並不是那麼願意留在學界。而與業界比較起來,教授的工作環境相較之下又比較彈性,因此對女性來說比較可以照顧家庭。 

 

 

亞馬遜的AI招募程式有偏見?人類可以用AI來改變偏見嗎?

而就在這個月,有許多媒體報導說Amazon從2014年以來,開發了用來審應徵者履歷表的AI系統,用來從眾多求職的履歷表中,篩選出合適的候選人選。但是後來發現這個系統「重男輕女」,有著嚴重的偏見,所以最後棄用了。

由於機器智慧是陳縕儂的研究專業,因此現場也有人問她關於AI的「偏見」這件事。或是,人類是否能將一些主觀判斷的事情交給AI,這樣是否能夠達到不帶偏見的結果?

陳縕儂表示這個問題其實必需要從理解AI開始說明。她雖然不清楚Amazon的徵才系統是怎麼設計的,不過她認為「重男輕女」並不能說就代表Amazon的這個系統不好,因為AI的判斷靠的是過去Amazon的徵才數據來養成的,「重男輕女」只能代表過去Amazon的徵才比例男性偏高,而AI純粹就是反映出這個結果。

事實上,如果人類帶有偏見,AI恰恰就是一個反映出人類偏見的放大鏡。

她進一步說明,以她本身對於自然語言處理以及AI相關的研究來說,在語言上,AI可以用向量來表示詞語之間的關係,而研究者就發現一個很有趣的現象,比方說:King跟Queen之間的向量關係,與Boy跟Girl之間的向量關係是很接近的。而這點我們當然可以理解,而且會覺得這個AI的判斷很準確。但是,當我們輸入更多的數據,就會發現一些很有趣的現象,比方說:「男生」跟「女生」的向量關係,與「教授」與「助理教授」之間的向量關係是很接近的。

她再舉另外一個例來說明:我們都知道有很多AI系統,可以將一張圖送入系統中,然後AI就可以幫你辨識分析出圖片中的物件是什麼。而在研究的過程中,她們也發現,如果把一張「人在廚房做菜」的圖片輸入到這個AI系統中,不管這張圖片中做菜的人的臉孔有多麼明顯是男生,但是AI在大多數的情況下都還是會告訴你「一個女生在廚房做菜」。

造成這種因素的原因很簡單,就是因為先前輸入給AI的資料有非常高的比例都是女生在做菜,因此AI只能判斷說出這樣的結果。

不過,陳縕儂表示,也因為學界已經發現人類本身就帶有偏見,因此AI反映出來人類的這種偏見的問題,現在正有一個派別的研究方向,就是想嘗試去除AI的這種偏見,好得到一個更客觀、公正的結果。

因此,回到一開始的問題:AI是否能夠幫助人類去除偏見?

以目前來說,我們的AI系統可能無法完全解除這些偏見,當然不光是男女的問題、也包括種族的問題、審美的問題…等等,因為人類世界已經有很多這些偏見了,因此輸入了這些數據,自然會得到這些結果。但是,如果人類不去探討這些AI之中的偏見,那麼就會永遠都使用帶有偏見的AI系統。

那麼,要如何察覺出這些偏見呢?她表示在AI的發展過程中,加入更多受偏見的那一方來參與,將會有助於發展。因為如果你是受偏見的那一方,自然會比較容易意識到偏見的產生,從而來協助對系統的校正。

雖然如此,但是陳縕儂表示,隨著AI在各個領域的發展以及進化,她認為AI至少可以做到的是,就像是一個反映出人類偏見的放大鏡。讓我們知道,生活已經充滿了這些方方面面的偏見,然後提醒我們不要照著這些偏見走。

想看小編精選的3C科技情報&實用評測文,快來加入《T客邦》LINE@

查看原始文章

更多科技相關文章

01

輝達擬砸300億美元投資OpenAI 取代千億美元長期合作

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...