程序員當前解決與人工智能(AI)和自動駕駛汽車(AV)有關的道德問題的方式中存在一個很大的缺陷。也就是說,現有方法無法說明人們可能會嘗試使用AV來做一些不好的事情。
例如,假設有一輛無人駕駛的自動駕駛汽車,它即將撞上一輛載有五個人的汽車。它可以通過轉出道路來避免碰撞,但隨后會撞到行人。
在這種情況下,關于道德的大多數討論都集中在自動駕駛汽車的AI是自私的(保護車輛及其貨物)還是功利的(選擇傷害最少的人的行動)。但是,這種或/或道德方法會引發自身的問題。
北卡羅萊納州立大學科學,技術與社會(STS)計劃的助理教授VeljkoDubljevi?說:“目前的道德和自動駕駛方法過于危險,過于簡單,道德判斷比這更為復雜。”概述了這個問題以及可能的前進方向。“例如,如果車上的五個人是恐怖分子呢?又如果他們故意利用AI的程序殺死附近的行人或傷害他人呢?那么您可能希望自動駕駛汽車撞上五個人?乘客。
“換句話說,當前用于解決AI和自動駕駛汽車道德問題的簡單方法不能說明惡意意圖。它應該這樣做。”
作為替代方案,Dubljevi?建議使用所謂的Agent-Deed-Consequence(ADC)模型作為AI可以用來做出道德判斷的框架。ADC模型基于三個變量來判斷決策的道德性。
首先,代理人的意圖是好是壞?第二,行為或行動本身是好是壞?最后,結果或后果是好是壞?這種方法允許細微差別。
例如,大多數人會同意開紅燈是不好的。但是,如果您闖紅燈以避開急速的救護車怎么辦?如果開紅燈意味著您避免與那輛救護車相撞怎么辦?
Dubljevi?說:“ ADC模型將使我們更接近人類道德判斷中看到的靈活性和穩定性,但AI中尚不存在這種靈活性和穩定性。”“這就是我所說的穩定和靈活。人類的道德判斷是穩定的,因為大多數人會同意撒謊在道德上是有害的。但是,這是靈活的,因為大多數人也會同意為保護猶太人而撒謊來納粹的人在做道德上的事情。好。
“但是,盡管ADC模型為我們提供了一條前進的道路,但仍需要進行更多的研究,”Dubljevi?說。“我領導了有關哲學家和外行人如何進行道德判斷的實驗性工作,其結果是有價值的。但是,該工作以書面形式給了人們信息。需要更多的人類道德判斷研究,而這需要更直接的交流手段,例如虛擬現實,如果我們想確認我們先前的發現并在自動駕駛汽車中應用它們,那么,在任何公認的“道德”自動駕駛汽車開始與人定期分享道路之前,應進行駕駛模擬研究的嚴格測試。不幸的是,攻擊已變得越來越普遍,我們需要確保不會將AV技術濫用于邪惡目的。”
論文“致力于在自動駕駛汽車中實現道德判斷的ADC模型”已發表在《科學與工程倫理學》雜志上。
-
人工智能
+關注
關注
1794文章
47642瀏覽量
239674 -
自動駕駛
+關注
關注
784文章
13923瀏覽量
166834
發布評論請先 登錄
相關推薦
評論