編者按:據(jù)路透社今日報道,亞馬遜機器學(xué)習(xí)專家發(fā)現(xiàn),他們的新型招聘工具并不歡迎女性。以下是論智對報道的編譯。
從2014年開始,亞馬遜的機器學(xué)習(xí)小組就著手搭建一款能自動查看申請者簡歷的程序,目的是快速找到他們想要的人才。自動化是亞馬遜電子商務(wù)的主要關(guān)注點,這在倉儲物流和價格定位中都有使用。而公司目前正在試驗階段的招聘工具通過人工智能技術(shù),將候選人從1到5進行評分,有人說這有點像商品的使用評價。
“人人都想得到這份工作。亞馬遜想讓這個模型從100份簡歷中自動篩選出top 5,然后直接聘用這些即可,”小組其中的一人說道。
但是到2015年,亞馬遜發(fā)現(xiàn)這一新系統(tǒng)在評估軟件開發(fā)職位和其他技術(shù)崗位時,在性別上有不公正之處。
這是由于亞馬遜的計算機模型在訓(xùn)練時是通過觀察過去十年申請者的簡歷信息,其中大多數(shù)是男性,這也反映了男性在技術(shù)領(lǐng)域中占有相當(dāng)大的比例。
這樣一來,亞馬遜的招聘系統(tǒng)就告訴自己,男性候選人更受人青睞。于是它會降低含有“女性”字眼的簡歷分?jǐn)?shù),如果是在女子大學(xué)畢業(yè),也會降低評分。
亞馬遜針對這些問題進行了修改,使其更加中立。但是這并不能保證機器會用其他方法體現(xiàn)出它的不公平性。最終,去年年初,該小組被解散。招聘者會在面試時參考該工具的意見,但不會完全依賴它的答案。
男性化語言
隨著大量低成本計算力的出現(xiàn),機器學(xué)習(xí)受到很多公司的追捧,亞馬遜也因此開始大量招聘。從2015年6月開始,總部員工增加了兩倍,達(dá)到575700人。于是,亞馬遜在愛丁堡工程中心成立了一個小組,目的就是開發(fā)人工智能,從網(wǎng)絡(luò)上尋找值得招募的人。
該小組創(chuàng)建了500個計算機模型,專注于各地區(qū)各崗位的招聘,他們根據(jù)過去候選人的簡歷,教模型辨認(rèn)大約5萬個條目。算法并不看重IT職位招聘時常見的技能,例如會寫多少種代碼。相反,算法更喜歡看到男性簡歷中出現(xiàn)的某些動詞,例如“執(zhí)行”和“捕捉到”等等。
性別歧視并不是唯一的問題,模型的數(shù)據(jù)有時會帶來錯誤判斷。有時,不合格的候選人通常會被推薦到其他各種崗位,隨著這些結(jié)果越來越離譜,亞馬遜關(guān)閉了該項目。
阻礙還是動力?
不過,其他公司仍然在AI招聘的路上前進著。
初創(chuàng)公司HireVue的老板Kevin Parker表示,自動化招聘可以幫助雇主跳出傳統(tǒng)的招聘平臺,他的公司通過分析候選人在視頻面試中的話語和面部表情來降低對簡歷的依賴。
高盛公司也創(chuàng)建了自己的簡歷分析工具,目的是選出最契合公司的候選人。而世界最大的職業(yè)招聘網(wǎng)站LinkedIn可以根據(jù)用戶在網(wǎng)站上發(fā)布的信息,用算法生產(chǎn)排名提供給招聘者。LinkedIn人才招聘部門的副總裁John Jersin說,這項服務(wù)并不是要代替?zhèn)鹘y(tǒng)招聘,“我當(dāng)然不會相信現(xiàn)在任何的AI系統(tǒng)做出的招聘決策。”
有些從業(yè)者說他們擔(dān)心AI的透明度,美國公民自由聯(lián)盟目前正考慮是否可以設(shè)立法律,允許受害者可以對使用帶有歧視算法的招聘者提起訴訟。該聯(lián)盟的一位律師Rachel Goodman表示:“我們正密切關(guān)注算法的公平性。”
但是,Goodman和其他有AI背景的人認(rèn)為,想要以上述名義起訴招聘者可能很難,因為候選人可能永遠(yuǎn)不會知道在招聘時用了哪些信息。
至于亞馬遜,公司目前從失敗中學(xué)到了相關(guān)經(jīng)驗,只用簡單的去重技術(shù),將數(shù)據(jù)庫中重復(fù)的簡歷篩選掉,這也是最常見的技術(shù)之一。另外有消息稱,愛丁堡目前成立了一個新小組,他們正試著開始第二次自動化招聘的項目,但更關(guān)注的是多樣性。
后記
對于亞馬遜模型偏差的問題,在微博上也引起了討論。網(wǎng)友@HammerSh4w提問:
“由群體特征學(xué)習(xí),將該知識應(yīng)用到個體,模型本身會引入偏差,這個偏差能否被認(rèn)為是偏見,是不是可以通過棄用一些敏感的特征來緩解偏見?”
我們熟知的@愛可可-愛生活老師針對這一觀點表示:
“有一定道理,不過敏感特征降權(quán)相當(dāng)于用另一種手工偏差抵消數(shù)據(jù)偏差,其實很難把握;問題的根本,在于學(xué)到的數(shù)據(jù)模式是否能支持特定的決策目標(biāo)。”
AI最初就像嬰兒,它不帶任何觀點或偏見。它之所以變得“有偏見”,是因為教它的老師有偏見。
-
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8438瀏覽量
132954 -
亞馬遜
+關(guān)注
關(guān)注
8文章
2680瀏覽量
83530
原文標(biāo)題:歧視女性應(yīng)聘者,亞馬遜AI招聘項目被迫關(guān)閉
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論