在這個(gè)人工智能無處不在的時(shí)代,這可能會帶來持續(xù)的系統(tǒng)性歧視。這也是為什么麻省理工電腦科學(xué)AI實(shí)驗(yàn)室的研究者們創(chuàng)立能減少人工智能偏見但不會降低預(yù)測結(jié)果準(zhǔn)確率的方法的原因。
“我們把這看成是一個(gè)幫助人工智能工程師診斷出系統(tǒng)做出不公正預(yù)測的原因的工具箱,”麻省理工教授David Sontag說。相關(guān)論文由David Sontag,博士生Irene Chen和Fredrik D. Johansson共同完成。
Sontag表示研究者們發(fā)現(xiàn)人工智能模型更傾向于將女性識別為低收入,將男性識別為高收入。通過將數(shù)據(jù)源中的女性代表數(shù)量翻了十倍,不準(zhǔn)確的結(jié)果數(shù)量下降了40%。傳統(tǒng)方法可能會提出通過將大多數(shù)種群的數(shù)據(jù)源隨機(jī)化來解決不同種群的結(jié)果不平等問題。論文中寫道:“在這個(gè)項(xiàng)目中,我們認(rèn)為預(yù)測的公正性評估應(yīng)在數(shù)據(jù)背景中進(jìn)行,由不恰當(dāng)?shù)臉颖敬笮』蛘呶礈y量的預(yù)測變量導(dǎo)致的不公正應(yīng)當(dāng)通過數(shù)據(jù)匯集而不是約束模型來解決。”
預(yù)測準(zhǔn)確率的不同有時(shí)可以歸咎于缺失數(shù)據(jù)或者結(jié)果無法預(yù)測。研究者們建議人工智能在接受公平性標(biāo)準(zhǔn)的檢驗(yàn)前,應(yīng)先分析其模型傾向,模型變化幅度等元素。研究者在論文中指出:“這暴露和區(qū)分了不恰當(dāng)?shù)臄?shù)據(jù)采集所帶來的負(fù)面影響以及模型在公平性方面的自主選擇。提高公平性并不總會帶來預(yù)測準(zhǔn)確率的降低,但肯定需要數(shù)據(jù)采集方面的投資和模型的發(fā)展。在高風(fēng)險(xiǎn)應(yīng)用中,其產(chǎn)生的收益往往大于前期投入。”
一旦評估已經(jīng)開始,研究者建議預(yù)計(jì)收集附加訓(xùn)練樣本的影響,然后匯集數(shù)據(jù)來識別得到不公正結(jié)果的亞種群進(jìn)而引導(dǎo)附加變量集合。這種方法曾被用于從基于統(tǒng)計(jì)數(shù)字,課本評價(jià)和病人死亡率的輸入項(xiàng)目中獲取平等的結(jié)果。
在過去幾年里人們對人工智能因偏見產(chǎn)生不準(zhǔn)確結(jié)果進(jìn)而帶來嚴(yán)重后果的擔(dān)憂持續(xù)增加。一些工具和方法試圖解決這一問題,例如今初創(chuàng)公司Pymetrics開源了其偏見探測工具Audit AI,九月IBM發(fā)布了基于算法的偏見探測云服務(wù),谷歌也借助What-If工具和TensorBoard將人工智能偏見視覺化。
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7081瀏覽量
89201 -
算法
+關(guān)注
關(guān)注
23文章
4622瀏覽量
93058 -
人工智能
+關(guān)注
關(guān)注
1792文章
47432瀏覽量
238977
原文標(biāo)題:GGAI 前沿 | 減少AI偏見 麻省理工通過技術(shù)實(shí)現(xiàn)中立
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論