要引導(dǎo)AI變得有道德,須讓科技公司變成道德主體,科技向善應(yīng)成為恪守與貫徹的道德底線,為人類創(chuàng)造福祉并驅(qū)動(dòng)社會(huì)發(fā)生積極變革應(yīng)成為科技公司存在與發(fā)展的圭臬。出臺(tái)AI使用者的道德與法律規(guī)則同樣時(shí)不我待。
包括臉書(shū)、微軟、谷歌等公司高層代表以及科學(xué)家、學(xué)術(shù)界人士稍早時(shí)候聚集日內(nèi)瓦,在首屆瑞士全球數(shù)字峰會(huì)上商討與人工智能(AI)有關(guān)的全球道德標(biāo)準(zhǔn),與會(huì)代表約定會(huì)就這個(gè)主題在明年1月的達(dá)沃斯世界經(jīng)濟(jì)論壇上展開(kāi)更為廣泛與深入的切磋。
誰(shuí)也不會(huì)懷疑人工智能將成為引發(fā)創(chuàng)新與激發(fā)變革的最強(qiáng)大科技力量,正是如此,公眾正以極大的寬容甚至狂熱的姿態(tài)擁抱人工智能的最新成果,而對(duì)于AI所衍生出的道德問(wèn)題往往因“暈輪效應(yīng)”的作用而未能有清晰的認(rèn)知與足夠的重視。就以不久前世界人工智能大會(huì)上ZAO推出的“AI換臉App”為例,用戶只需一張正臉照,就可替換為影視作品的人物,生成以自己為主角的視頻片段,這款A(yù)pp一夜火爆全網(wǎng)??墒?,在贏得了片刻的刺激與興奮之后,相信所有的用戶都會(huì)因綁在身上的ZAO協(xié)議而惴惴不安。
看看ZAO的用戶協(xié)議吧:用戶上傳發(fā)布內(nèi)容后,意味著“同意或確保肖像權(quán)利人授予‘ZAO’及其關(guān)聯(lián)公司全球范圍內(nèi)完全免費(fèi)、不可撤銷、永久、可轉(zhuǎn)授權(quán)和可再許的權(quán)利”,而且“侵權(quán)了明星肖像,若對(duì)方提告,最后責(zé)任都在用戶”。就此,不妨向用戶提出以下問(wèn)題:假如被換臉的明星向你提出訴訟,假如有人就此制作虛假視頻并栽贓于你,假如你的臉被別人用于刷臉支付,你會(huì)怎么辦?聽(tīng)聽(tīng)他們會(huì)是什么反應(yīng)。
其實(shí),類似“換臉App”引起的AI道德拷問(wèn)已不計(jì)其數(shù)。AI突破道德底線并淪為作惡工具的程度已超過(guò)了人們的想象。對(duì)此,目前的主流判斷是,技術(shù)無(wú)罪,但操控技術(shù)的人一定有過(guò)。按照墨菲定理,如果一件事情有可能出錯(cuò),那就一定會(huì)出錯(cuò)。也就是說(shuō),如果做某項(xiàng)工作有多種方法,而其中有一種方法必然導(dǎo)致錯(cuò)誤,那一定有人會(huì)按這種方法去做。依據(jù)一項(xiàng)針對(duì)1010名英國(guó)科技工作者的研究,90%的人認(rèn)為科技是一種正能量,但59%身處人工智能領(lǐng)域的人則表示,他們從事的項(xiàng)目可能對(duì)社會(huì)有害,有18%的人因倫理道德問(wèn)題而辭職。盡管AI違背或踐踏道德只是少數(shù)技術(shù)操作者的行為,也就是墨菲定理所指的個(gè)別人犯錯(cuò),但這種錯(cuò)誤極易被更多人模仿,而且借助網(wǎng)絡(luò)傳播的力量會(huì)無(wú)限放大,最終造成的社會(huì)危害無(wú)法估量。
可是,如何平衡AI創(chuàng)新與AI道德又是一個(gè)非常棘手的難題。今天,飛速前行的技術(shù)需要更多創(chuàng)新成果來(lái)提供貼近生產(chǎn)與生活的各種服務(wù),這就要求企業(yè)不斷尋求突破。只是,如果套上更多條條框框,又勢(shì)必抑制與捆綁AI 探索的腳步與空間。拿AI的基礎(chǔ)數(shù)據(jù)來(lái)說(shuō),用戶的身份、職業(yè)、年齡及閱讀、購(gòu)物等行為偏好,都是優(yōu)化推薦算法的關(guān)鍵依據(jù),科技公司獲取的這些隱私數(shù)據(jù)越多,就越能讓AI的服務(wù)更精確地貼合公眾需求,利于商業(yè)主體精準(zhǔn)發(fā)力。如果注入了道德元素,數(shù)據(jù)的限制與缺失不僅會(huì)使AI的服務(wù)功能大打折扣,會(huì)面臨著資本的反制。
然而,任何創(chuàng)新的閘門(mén)都不是不能把控的,人類既然能讓機(jī)器變得非常智慧,同樣也可讓它行走在指定的路徑與劃定的邊界之內(nèi),比如一件AI可在哪些場(chǎng)景下使用,使用越界時(shí)的自動(dòng)糾正功能等。這樣,無(wú)論機(jī)器具有怎樣的學(xué)習(xí)天賦,我們都可讓它在決策時(shí)像人一樣在感知是非善惡的前提下行事。
要引導(dǎo)AI變得有道德,首先須讓科技公司變成道德主體,科技向善應(yīng)成為恪守與貫徹的道德底線,為人類創(chuàng)造福祉并驅(qū)動(dòng)社會(huì)發(fā)生積極變革應(yīng)成為科技公司存在與發(fā)展的圭臬。對(duì)此,所有的AI 企業(yè)都有必要像微軟成立人工智能倫理道德委員會(huì)那樣,創(chuàng)建由工程師、科學(xué)家、律師和公司領(lǐng)導(dǎo)組成的監(jiān)管機(jī)構(gòu),負(fù)責(zé)對(duì)每款A(yù)I產(chǎn)品的道德倫理風(fēng)險(xiǎn)評(píng)估及運(yùn)行內(nèi)外部審查和實(shí)施相應(yīng)的改進(jìn)機(jī)制。
相比于企業(yè)對(duì)AI的自我審查,行業(yè)協(xié)會(huì)是把控人工智能的第一道外部道德關(guān)口。目前,除了世界電氣電子工程師學(xué)會(huì)(IEEE)在《人工智能設(shè)計(jì)的倫理準(zhǔn)則》中提出了人權(quán)、福祉、問(wèn)責(zé)與透明的倫理標(biāo)準(zhǔn)外,亞馬遜、微軟、谷歌及蘋(píng)果等全球百余家科技巨頭還創(chuàng)建了非營(yíng)利性的人工智能合作組織Partnership on AI,提出了公平、沒(méi)有傷害、公開(kāi)透明及問(wèn)責(zé)等倫理道德框架。各國(guó)各行業(yè)可以此為參照建立各自的AI道德評(píng)價(jià)矩陣與評(píng)估流程。相對(duì)于企業(yè)自我道德評(píng)價(jià),作為第三方的行業(yè)道德評(píng)價(jià)能有效克服前者在商業(yè)訴求與道德訴求上的角色沖突,過(guò)濾掉企業(yè)道德評(píng)價(jià)中的不合理因素,確保AI倫理道德評(píng)估結(jié)論的公正與可信。為了更廣泛地反映社會(huì)不同群體的基本訴求,行業(yè)道德監(jiān)督機(jī)構(gòu)應(yīng)最大限度吸收更多利益相關(guān)者加入。
制定AI倫理道德準(zhǔn)則更是各國(guó)政府義不容辭的職責(zé),衡量一國(guó)人工智能水平的高低不能只有技術(shù)指標(biāo),道德維度也已成了各國(guó)AI競(jìng)爭(zhēng)的新高地。從倫理角度切入,歐盟就已率先推出了涵蓋人的能動(dòng)性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會(huì)福祉以及問(wèn)責(zé)機(jī)制等七項(xiàng)內(nèi)容的AI倫理道德準(zhǔn)則。我國(guó)已有《網(wǎng)絡(luò)安全法》和《信息安全技術(shù)個(gè)人信息安全規(guī)范》,相關(guān)組織還發(fā)布了《人工智能北京共識(shí)》,但在AI的道德界限以及道德標(biāo)準(zhǔn)細(xì)化方面仍有待提煉與加工。
AI使用者同樣不應(yīng)成為道德盲區(qū),出臺(tái)AI使用者的道德與法律規(guī)則同樣時(shí)不我待。應(yīng)建立起可監(jiān)控的人工智能平臺(tái),以此倒逼科技公司調(diào)整與校準(zhǔn)研發(fā)行為,讓AI道德演變成民眾信任的基礎(chǔ)。
-
網(wǎng)絡(luò)安全
+關(guān)注
關(guān)注
10文章
3192瀏覽量
60103 -
AI
+關(guān)注
關(guān)注
87文章
31490瀏覽量
269978 -
人工智能
+關(guān)注
關(guān)注
1795文章
47642瀏覽量
239765
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論