北京大學(xué)哲學(xué)系副主任劉哲認為,具有完全自主性的人工智能和機器人產(chǎn)品暫時不會出現(xiàn),但仍應(yīng)盡快加快我國的倫理監(jiān)管工作,協(xié)調(diào)并進人工智能和機器人的倫理標準制訂。
倫理研究嵌入技術(shù)設(shè)計之初
受國家標準化管理委員會和國家機器人標準化總體組委托,我主持了《中國機器人倫理標準化白皮書2018》的制訂工作。在研究過程中,我注意到其他國家(例如英、美、日等國)出臺的機構(gòu)白皮書以及相關(guān)政府報告中,人工智能和機器人并不判然分離。在我國相關(guān)倫理標準規(guī)劃中,這兩個領(lǐng)域倫理標準工作則是分別進行的。由于這兩個領(lǐng)域倫理問題交集很多,我建議人工智能和機器人倫理標準工作能夠協(xié)調(diào)合作進行,希望能夠達成共識。
在人工智能和機器人倫理標準方面,我國的研究現(xiàn)狀相對其他國家,包括日本、韓國在內(nèi),有一定程度滯后。國際社會對中國相關(guān)科技發(fā)展缺乏倫理監(jiān)管的詬病非常不利于我們的技術(shù)發(fā)展。我們可以仔細想想,在過去幾十年的經(jīng)濟高速發(fā)展過程中,倫理和社會價值驅(qū)動并不是經(jīng)濟發(fā)展的根本增長模式。現(xiàn)在,當(dāng)我們走到以硬科技作為平臺來推動經(jīng)濟發(fā)展的階段時,我們已經(jīng)繞不開對倫理和社會價值驅(qū)動的研究。這些技術(shù)無論是在工業(yè)、民用、還是軍事領(lǐng)域的使用,都涉及太多關(guān)于人的價值以及社會價值的問題。
之前我在參加一些座談時,有個直觀感受,即很多人傾向于把人工智能和機器人的監(jiān)管治理委托給法律。然而,目前人工智能的概念還很模糊,包括產(chǎn)業(yè)的發(fā)展方向、技術(shù)發(fā)展的突破口都相當(dāng)開放,沒人可以準確預(yù)測下一步會發(fā)展成什么樣。在這些新興科技自身尚未獲得充分認知,對個人和社會的沖擊尚未成型的時候,討論怎么立法,靠什么法律監(jiān)管,這是根本無法做到的。法律規(guī)制具有一定的保守性,當(dāng)人工智能和機器人帶來的現(xiàn)實問題還未出現(xiàn)的時候,是很難從法律方面進行監(jiān)管的。從技術(shù)發(fā)展角度來說,當(dāng)其引發(fā)的問題還沒有出現(xiàn)的時候就立法,甚至很可能會直接扼殺對國家工業(yè)、軍事、民生產(chǎn)生重要影響的技術(shù)突破,導(dǎo)致其無法繼續(xù)發(fā)展了。在這個背景下,人工智能和機器人倫理監(jiān)管是各國正在普遍采取的一種策略。
從英美這些國家的做法來看,它們意圖把倫理價值融入在人工智能和機器人技術(shù)設(shè)計初期,而不是等事情發(fā)生了再去敲打。這種前瞻性的倫理路徑是非常值得借鑒的。在我們思考技術(shù)發(fā)展的時候,應(yīng)該把倫理價值關(guān)注轉(zhuǎn)換成技術(shù)研發(fā)人員和工程師能懂的代碼,把它實現(xiàn)在技術(shù)、產(chǎn)品設(shè)計的初期。
舉個例子,在做《白皮書》的時候,我們看到有很多的論文是來自荷蘭的兩個大學(xué)(TU Delft和University of Twente),但這兩個大學(xué)在我們國內(nèi)所熟知的傳統(tǒng)哲學(xué)領(lǐng)域并沒有非常顯赫的聲譽。讓我們特別詫異的是,他們的工作非常深入和系統(tǒng),他們對人工智能和機器人的倫理研究緊密地融入在科技研發(fā)的平臺上。后來我們從國內(nèi)科技界同仁那里了解到,這兩所大學(xué)都以機器人科技研發(fā)見長。他們的相關(guān)倫理研究并不是哲學(xué)系里一批人在單獨工作,而是依托大學(xué)自身的技術(shù)工程背景進行跨學(xué)科整合。從技術(shù)發(fā)端之始,他們就進行著跨學(xué)科的團隊合作,以此來推動倫理在科技創(chuàng)新中的深度融合。這對于我們未來產(chǎn)學(xué)研結(jié)構(gòu)的調(diào)整是非常重要的啟發(fā)。
AI和機器人領(lǐng)域的倫理難題
對于工業(yè)機器人,大家首先關(guān)注的是它的安全問題,協(xié)作型機器人出現(xiàn)之前,發(fā)生過一些嚴重的機器人事故,各國都有。工業(yè)協(xié)作型機器人出現(xiàn)之后,大家更多關(guān)注的是其對就業(yè)崗位的沖擊。但也有另外一種聲音,據(jù)國際機器人聯(lián)合會(IFR)統(tǒng)計,機器人的確削減了很多就業(yè)崗位,但也增加了許多新興崗位。
美國的機器人和人工智能戰(zhàn)略中,提出人力資源管理部門要形成新的培訓(xùn)體系,對新的崗位提供培訓(xùn)平臺,這一點在應(yīng)對人工智能和機器人帶來的崗位沖擊時至關(guān)重要。然而,要想讓再次就業(yè)成為可能,那就需要讓大學(xué)教育,甚至中小學(xué)教育模式進行調(diào)整。就業(yè)人員的素質(zhì)不是一兩天能夠培訓(xùn)出來的,也不是單純靠技術(shù)知識灌輸就可以完成的。若此問題解決不好,人工智能和機器人的廣泛應(yīng)用對于中國就業(yè)就是剛性沖擊,會導(dǎo)致大量失業(yè)的出現(xiàn)。
第二,在工廠和車間中,當(dāng)機器人和人進行協(xié)作作業(yè)時,工人在生產(chǎn)流程中被安排在什么樣的位置中是非常重要的。我們設(shè)想,如果我們現(xiàn)在的這個會議是由機器人來指揮,我們要服從于機器人的各種指令,人類會覺得自身的價值嚴重受損,所以我們在設(shè)計人工智能和機器人時還要充分考慮人自身的自我價值評價。
第三,當(dāng)協(xié)作機器人大量進入工業(yè)生產(chǎn)中,這會大大降低人與人間協(xié)作交流的機會,容易造成很多人員心理方面的問題,這也是需要我們重點考量。
在醫(yī)療健康領(lǐng)域,情況更加復(fù)雜。有案例表明,IBM Watson在通過大量掃描和解讀醫(yī)學(xué)影像后,可能給出的診斷結(jié)論和治療建議與人類醫(yī)生結(jié)論相反。在中國本已異常復(fù)雜的醫(yī)患關(guān)系現(xiàn)實下,如果出現(xiàn)這種問題,患者和醫(yī)生將應(yīng)如何面對?如果甚至由此出現(xiàn)治療問題,到底是人工智能設(shè)備、還是醫(yī)院、或是醫(yī)生來承擔(dān)責(zé)任?還是大家一起捆綁承擔(dān)?這些問題都是我們在引入這類新興技術(shù)的時候從一開始就要考慮的。
目前,保險業(yè)也開始對人工智能和機器人在醫(yī)療領(lǐng)域的應(yīng)用產(chǎn)生興趣。這將帶來另外的風(fēng)險。保險公司可能會在掌握醫(yī)療大數(shù)據(jù)(包括基因數(shù)據(jù))基礎(chǔ)上提高投保門檻,并對采取什么樣的治療方案進行相當(dāng)深度的干預(yù),這些是和整個行業(yè)的利益捆綁在一起的。
另外一類,醫(yī)用機器人,比如現(xiàn)在很受歡迎的達芬奇機器人,進行機器人手術(shù)治療。在其官網(wǎng)上我們能看到很多案例介紹,達芬奇機器人優(yōu)勢在于其精準率高,創(chuàng)口小和術(shù)后康復(fù)時間短。但由于每個患者個體差異非常大,機器人手術(shù)會在個別患者身上出現(xiàn)復(fù)雜情況。在這樣的手術(shù)復(fù)雜情況下,人類醫(yī)生手術(shù)不得不介入,反而導(dǎo)致創(chuàng)傷面更大,康復(fù)過程非常復(fù)雜。這樣的責(zé)任該由誰來承擔(dān)?是機器人,還是醫(yī)生、醫(yī)院、保險公司等等?表面上來看,醫(yī)療技術(shù)的進步可能是患者的福音,但真正介入行業(yè)的時候會發(fā)現(xiàn)很多問題。我國醫(yī)療資源的分配本來就很不均衡,這種高科技醫(yī)療機器人的使用,是否會加劇既有的不平衡?
還有一些進入我們家庭生活的服務(wù)機器人,這些機器人在面對人類同時間多元需求時,無法區(qū)分需求的優(yōu)先等級。設(shè)想正在陪伴孩子娛樂的機器人面對母親召喚做一些廚房家務(wù)的指令,它將無法分配優(yōu)先級并進行相應(yīng)的回應(yīng)。
還有日本在養(yǎng)老院推出的陪護機器人,最初設(shè)想是緩解老人之間缺乏溝通的孤獨、封閉狀態(tài),通過把機器人擺在桌上,喚起老人對機器人的關(guān)愛從而引發(fā)老人彼此間的互動。但實際上這些陪護類機器人所面對的基本都是老人、兒童這類弱勢群體,尤其是自閉癥兒童。這類人群很容易形成人對于機器人和人工智能系統(tǒng)的單向情感綁定,這對于他們要更好地進行人類社會交流而言是災(zāi)難性的。
再來講講軍事機器人,近年來有關(guān)這類機器人的倫理討論在國際上有很多。當(dāng)機器人走上戰(zhàn)場,它們將如何區(qū)分平民和戰(zhàn)斗人員?此外,如果把大量機器人派到戰(zhàn)場上,這是否會大大降低發(fā)動戰(zhàn)爭的門檻,而并非削減戰(zhàn)爭?這對于國際政治秩序的沖擊也將是非常大的。
實際上,今天很多人工智能和機器人技術(shù)研發(fā)其實是和社會的需求緊密相關(guān)的。比如護理機器人,因為在日本、北歐以及中國普遍出現(xiàn)的人口老齡化問題,導(dǎo)致我們不得不在此領(lǐng)域投入更多的力量去應(yīng)對社會未來潛在風(fēng)險。再比如醫(yī)療領(lǐng)域,也和我們醫(yī)護人員嚴重不足息息相關(guān)。在無人駕駛領(lǐng)域,產(chǎn)業(yè)界會說人類駕駛交通事故率較高,無人駕駛可以讓駕駛變得更安全。實際上,以規(guī)則為基礎(chǔ)的方式為無人駕駛汽車嵌入一套道德法則是相當(dāng)困難的。
即便在人類社會中,我們的道德規(guī)則體系之間也常常相互沖突,這不僅包括兩類現(xiàn)代倫理體系——義務(wù)論和后果主義這樣的倫理原則沖突,也包括古典美德倫理和現(xiàn)代倫理的沖突;而且不僅涉及東西方文化差異,還有非洲和拉美這些地域的文化差異。如果人們的價值體系、所訴求的道德原則以及行為準則,均展示巨大的文化差異,這種情況下,應(yīng)該為機器人嵌入什么樣的倫理原則?由于今天國際化和流動性的增加,每個社會內(nèi)部就是倫理價值多元的。在這種情況下,誰有權(quán)決定哪一種倫理原則應(yīng)該被嵌入?難道科技公司巨頭來為人類決定道德生活規(guī)制?再則,責(zé)任分配和歸屬也面臨非常大的問題。不管采取什么樣的倫理原則,一旦出現(xiàn)了交通事故,該由誰來承擔(dān)責(zé)任,是制造商、駕駛員,還是機器人系統(tǒng)本身等等?以上這些問題還僅僅是冰山一角,人工智能和機器人產(chǎn)品帶來的挑戰(zhàn)和風(fēng)險都是我們要去面對的。
英美的人工智能倫理研究
歐盟早在2004年,就啟動了對人工智能和機器人倫理問題的關(guān)注。英國議會的上院制定了一個雄心勃勃的計劃。他們提出英國要在人工智能和機器人倫理方面成為國際領(lǐng)袖。由此,英國要來引導(dǎo)和規(guī)劃全球人工智能和機器人的使用和研發(fā)。作為這個世紀的一個平臺性技術(shù),人工智能和機器人倫理標準對于科研、產(chǎn)業(yè)方向布局會產(chǎn)生重大的影響。
目前國際上,英國BSI和美國IEEE對人工智能和機器人倫理標準的研究和制定相對領(lǐng)先,研究投入和持續(xù)性很強。英國以后果主義倫理的基本框架來制定標準,美國則試圖遵循新亞里士多德主義的美德倫理框架,并在第二版中增加了大量的對印度、非洲、日本倫理傳統(tǒng)的跨文化研究。其負責(zé)人海文斯(John Havens)在2016年第二版發(fā)布會上曾表示:隨著我們?nèi)找嬉庾R到文化和倫理價值的多元,我們必須要考慮到針對新興科技的倫理標準和價值需要達成國際性共識。
根據(jù)目前技術(shù)發(fā)展平臺,各國推出的人工智能和機器人倫理標準還沒有深入涉及具有完全道德自主性的人工智能和機器人系統(tǒng)。基于現(xiàn)在的技術(shù)發(fā)展以及可預(yù)見的未來,具有完全自主性的人工智能和機器人產(chǎn)品暫時不會出現(xiàn),所以我所看到的各個標準也暫時未賦予機器人具有與人類同等的道德地位。
-
機器人
+關(guān)注
關(guān)注
211文章
28632瀏覽量
208005 -
人工智能
+關(guān)注
關(guān)注
1794文章
47642瀏覽量
239682
原文標題:學(xué)者之聲丨北京大學(xué)劉哲:倫理研究應(yīng)與人工智能的技術(shù)發(fā)展相嵌融合
文章出處:【微信號:drc_iite,微信公眾號:全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論