人工智能已經(jīng)遍布我們的日常生活。從YouTube的首頁(yè)推薦到生產(chǎn)藥物,它無(wú)所不在,它對(duì)我們生活的影響超出我們的想象。但人工智能一定公平嗎?不,絕對(duì)不是。
人們很難定義什么是公平的人工智能。以下是我能想出的最好的定義:對(duì)于社會(huì)歧視影響下的特定任務(wù),如果給定的人工智能模型能夠輸出獨(dú)立于敏感性參數(shù)(例如性別、種族、性取向、宗教信仰、殘疾等)的結(jié)果,那么這個(gè)人工智能模型就是公平的。
本文將討論人工智能偏見(jiàn),與之對(duì)應(yīng)的真實(shí)例子,及其解決方法。
問(wèn)題
人工智能偏見(jiàn)是由于訓(xùn)練模型的數(shù)據(jù)所固有的偏見(jiàn)造成的,這導(dǎo)致了社會(huì)歧視,進(jìn)而導(dǎo)致平等機(jī)會(huì)的缺乏。
假設(shè)我的任務(wù)是創(chuàng)建一個(gè)以位置為參數(shù)計(jì)算個(gè)人信用評(píng)分的模型,某些種族群體會(huì)集中在某些地方,這將使創(chuàng)建的模型對(duì)那些種族群體產(chǎn)生偏見(jiàn),會(huì)影響他們申請(qǐng)信用卡和銀行貸款,存在偏見(jiàn)的人工智能模型加劇了當(dāng)前的社會(huì)歧視。
人工智能偏見(jiàn)的真實(shí)例子
COMPAS(另類(lèi)制裁法懲罰罪犯管理分析)是美國(guó)法院用來(lái)判定被告成為累犯(重犯先前所犯罪行的罪犯)可能性的軟件。由于存在嚴(yán)重的數(shù)據(jù)偏差,該模型預(yù)測(cè)黑人罪犯累犯的假陽(yáng)性率是白人罪犯的兩倍。
2014年,亞馬遜開(kāi)發(fā)了一套人工智能招聘系統(tǒng)以簡(jiǎn)化招聘流程。研究發(fā)現(xiàn)該系統(tǒng)歧視女性,因?yàn)橛糜谂嘤?xùn)模型的數(shù)據(jù)來(lái)自過(guò)去10年。過(guò)去10年,由于科技行業(yè)中男性占主導(dǎo)地位,大多數(shù)被選中的申請(qǐng)人都是男性。亞馬遜在2018年廢除了這個(gè)系統(tǒng)。
美國(guó)醫(yī)療保健系統(tǒng)采用人工智能模型,認(rèn)為黑人患同一疾病的風(fēng)險(xiǎn)比白人低。這是因?yàn)樵撃P蛯?duì)成本進(jìn)行了優(yōu)化,而且由于黑人被認(rèn)為支付能力較低,因此該模型將他們的健康風(fēng)險(xiǎn)排在白人之后,導(dǎo)致黑人的醫(yī)療標(biāo)準(zhǔn)降低。
2019年,F(xiàn)acebook允許廣告商根據(jù)種族、性別和宗教瞄準(zhǔn)人群。這導(dǎo)致護(hù)士和秘書(shū)等工作以女性為目標(biāo),而像門(mén)警和出租車(chē)司機(jī)這樣的工作則瞄準(zhǔn)男性,特別是有色人種的男性。該模型還了解到,房地產(chǎn)廣告向白人展示時(shí),點(diǎn)擊率較好,所以面向少數(shù)人群的房地產(chǎn)廣告投放較少。
2020年9月,Twitter用戶發(fā)現(xiàn)圖像裁剪算法偏愛(ài)白人臉而非黑人臉。當(dāng)在Twitter上發(fā)布一幅與預(yù)覽窗口的寬高比不同的圖像時(shí),該算法會(huì)自動(dòng)裁剪掉圖像的一部分,只顯示圖像的某一部分作為預(yù)覽。在黑白面孔同框時(shí),該人工智能模型通常在預(yù)覽窗口中顯示白人。
這些例子只是滄海一粟。無(wú)論開(kāi)發(fā)者是否知情,許多不公平的人工智能操作都真實(shí)存在著。
如何解決這個(gè)問(wèn)題呢?
邁向公平人工智能的第一步是承認(rèn)問(wèn)題。人工智能是不完美的,數(shù)據(jù)是不完美的,我們的算法是不完善的,我們的技術(shù)也不夠完善。如果我們對(duì)問(wèn)題視而不見(jiàn),那么是不可能找到解決辦法的。
其次,問(wèn)問(wèn)自己這個(gè)解決方案是否需要人工智能。有一些問(wèn)題不依賴于數(shù)據(jù),比如尋找被告人再犯可能性這樣的任務(wù)更多地依賴于情感而不是數(shù)據(jù)。
第三,遵循負(fù)責(zé)任的人工智能實(shí)踐。在谷歌負(fù)責(zé)任的人工智能實(shí)踐指南的基礎(chǔ)上,我補(bǔ)充了幾個(gè)要點(diǎn)。負(fù)責(zé)任的人工智能實(shí)踐:
使用以人為中心的設(shè)計(jì)方法:設(shè)計(jì)模型時(shí)內(nèi)置適當(dāng)?shù)?a target="_blank">信息披露,并在部署前納入測(cè)試人員的反饋。
確定多個(gè)指標(biāo)評(píng)估培訓(xùn)和監(jiān)控:使用適合任務(wù)的不同指標(biāo),以了解不同錯(cuò)誤和經(jīng)驗(yàn)之間的權(quán)衡。這些指標(biāo)可以來(lái)自消費(fèi)者的反饋、假陽(yáng)性率和假陰性率等。
如果可能的話,請(qǐng)檢查原始數(shù)據(jù):人工智能模型反映了用來(lái)訓(xùn)練模型的數(shù)據(jù)。如果數(shù)據(jù)有問(wèn)題,模型也會(huì)有問(wèn)題。因此,盡量保持?jǐn)?shù)據(jù)平衡。
理解模型的局限性:一個(gè)被訓(xùn)練來(lái)檢測(cè)相關(guān)性的模型對(duì)建立因果關(guān)系不一定有用。例如,一個(gè)模型可能會(huì)了解到,購(gòu)買(mǎi)籃球鞋的人一般都比較高,但這并不意味著購(gòu)買(mǎi)籃球鞋的用戶會(huì)因此變得更高。
測(cè)試:進(jìn)行嚴(yán)格的單元測(cè)試以確定模型中的故障。
部署后繼續(xù)監(jiān)控和更新模型:在部署模型后,關(guān)注用戶反饋,并定期更新模型。
設(shè)計(jì)一個(gè)公平與包容兼具的模型:與倫理和社會(huì)研究領(lǐng)域的專(zhuān)家接洽,了解和解釋各種觀點(diǎn),試著讓模型盡可能公平。
使用具有代表性的數(shù)據(jù)集來(lái)訓(xùn)練和測(cè)試模型:嘗試評(píng)估數(shù)據(jù)的公平性。也就是說(shuō),尋找特征與標(biāo)簽之間的偏見(jiàn)或歧視性關(guān)聯(lián)。
檢查不公平的偏差:從不同背景的測(cè)試人員那里獲取單元測(cè)試輸入,這有助于確定哪些人群可能會(huì)受到該模型的影響。
分析性能:考慮不同指標(biāo),一個(gè)指標(biāo)的改進(jìn)可能會(huì)損害另一個(gè)指標(biāo)的性能。
開(kāi)發(fā)公平人工智能的工具
AIFairness 360:這是IBM提供的一個(gè)開(kāi)源工具包,可幫助用戶檢查、報(bào)告和減輕機(jī)器學(xué)習(xí)模型中的歧視和偏見(jiàn)。
ML Fairness Gym:這是谷歌提供的一個(gè)工具,用于探索機(jī)器學(xué)習(xí)系統(tǒng)對(duì)人工智能偏見(jiàn)的長(zhǎng)期影響。
FATE:AI中的公平、責(zé)任、透明度和倫理(FATE),微軟提供了評(píng)估可視化儀表盤(pán)和偏差緩解算法的工具。它主要用于公平與系統(tǒng)性能之間的權(quán)衡。
近來(lái),公司和政府開(kāi)始逐漸正視人工智能中的偏見(jiàn)。許多公司已經(jīng)開(kāi)發(fā)了評(píng)估人工智能公平性的工具,并且正在盡最大努力解決人工智能偏見(jiàn)。
雖然人工智能有著巨大的潛力,但我們現(xiàn)在比以往任何時(shí)候都更需牢記人工智能系統(tǒng)潛在的歧視性危險(xiǎn),我們也應(yīng)幫助開(kāi)發(fā)出公平的人工智能模型。
責(zé)編AJX
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7085瀏覽量
89202 -
人工智能
+關(guān)注
關(guān)注
1792文章
47439瀏覽量
238986 -
模型
+關(guān)注
關(guān)注
1文章
3268瀏覽量
48925
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論