日前,《特定常規武器公約》締約國專家會議在瑞士日內瓦開幕,參加者包括聯合國裁軍研究所、國際紅十字委員會、非政府組織以及相關領域的專家和學者。中國外交部、國防部也派代表出席了會議。會議圍繞自主武器系統所引發的法律、倫理和社會問題展開探討。
想必大家對電影中描繪的高度智能的機器人并不陌生,例如《終結者》、《變形金剛》、《機械公敵》等電影就展示了未來機器人戰爭的場景。在電影里,它們似乎具備了人類的某種判斷能力,被用來執行特殊任務或者某種可怕的殺戮或襲擊,甚至參與戰爭。其實,這就是廣義上的“自主武器系統”,也就是俗稱的“殺人機器人”。
目前,許多國家都在研發自主武器系統。毫無疑問,使用此類武器可以增強軍事實力,同時降低己方士兵的風險。因此,各國對自主武器開發研究和投入有增無減。如今,很多武器系統已經具備一定的自主功能。武器技術的不斷進步可能意味著,未來戰場上的致命決定可能完全由機器作出而無需人類干預。
盡管有許多專業文獻討論了自主武器,但對于自主武器尚無統一的定義。“自主武器”可以看作是根據自身所部署的環境的變化,隨時識別特殊情況并作出相應調整或運轉的武器。真正的自主武器能夠在無人干預或操控的情況下,搜索、識別并攻擊包括人類在內的目標(敵軍戰斗員)。這一定義意味著,自主武器是具有人工智能的移動系統,能夠在無人控制的情況下在動態環境中運行。
應該強調的是,此類“完全”自主的武器目前仍處于研究階段,尚未得到完全開發,也尚未部署在戰場上。然而,隨著武器系統自主性日益增強,它的發展會變得愈發難以預測。
目前,支持和反對自主武器的意見均不少見。支持者認為,這類系統采用先進的傳感器和人工智能,意味著它們將比士兵更能準確識別和攻擊軍事目標,從而避免平民意外傷亡。反對的聲音則呼吁暫停或禁止自主武器的研發、生產和使用。去年4月,就曾發起過一項“阻止殺人機器人”的國際運動。去年5月,***有關自主殺人機器人的報告稱,此類武器系統增加了各方對“在戰爭與和平年代保護生命的普遍憂慮”。公眾亦擔心,沒有人類控制的自主武器會任意行動,作出違反開發者意圖的行為,甚至會造成反噬。
因此,兩個關鍵的問題值得深究。第一,如何保證在法律允許范圍內使用自主武器系統。國際人道法規定,任何新武器、作戰手段或方法在使用過程中必須能夠符合國際人道法有關作戰行為的規則,特別是攻擊中的區分、比例和預防原則,從而達到保護平民的目的。在激戰中,自主武器是否能夠區分平民和戰斗員?如果攻擊所造成的平民和民用物體附帶傷亡或損害與預期的實際直接軍事利益相比可能過大,自主武器能否取消攻擊?從技術角度來說,有朝一日或許可以設計出一種高度智能的自主武器系統,能夠執行上述規則。但是,目前對此類規則實施的評估似乎更倚重人類所獨有的判斷力。同時,這也引出第二個問題,即誰應該對自主武器系統實施的違反國際人道法的行為負責。確定個人刑事責任將更具挑戰性。將責任歸咎于一臺機器或電腦似乎不太合理,那么誰將對自主武器系統所作的決定負責?程序員?制造商?還是部署該武器系統的指揮官?許多問題仍然沒有答案。
至此,我們的討論將超出法律和技術層面,開始對人類在武裝沖突中作出生死抉擇的角色本身提出根本性的質疑。最終問題不在于我們應該如何開發或操縱自主武器,而在于人類的良知是否會允許機器在無人控制的情況下作出生死決定并使用致命武力。
-
機器人
+關注
關注
211文章
28524瀏覽量
207553 -
人工智能
+關注
關注
1792文章
47442瀏覽量
239008
發布評論請先 登錄
相關推薦
評論