世界各地的政府和機構越來越依賴人工智能。美國、英國和其他地方的警察部門已經開始使用面部識別技術來識別潛在的嫌疑人。法官和法院也已經開始依靠機器學習來指導判決。在英國,據說每三個地方政府中就有一個使用算法或機器學習(ML)工具來決定諸如福利待遇申索之類的問題。政府對扔工智能的這些應用非常廣泛,以至于人們不禁要問:這是一個按算法管理的時代嗎?
許多批判人士對刑事公正和福利等敏感政策領域迅速擴大使用自動決策表示擔憂。其中最常表達的擔憂是偏差問題:當機器學習系統在有偏差的數據集上進行訓練時,它們不可避免地將數據潛在的社會不平等嵌入模型之中。數據科學和人工智能社區現在對數據偏差問題高度敏感,因此開始更加關注人工智能的倫理問題。同樣地,個別政府和國際組織也發表了旨在管理人工智能使用的原則聲明。
人工智能倫理的一個共同原則是可解釋性。產生擴大社會偏見的人工智能的風險促使人們提高算法或機器學習決策過程的透明度。隨著人工智能系統的使用激增,能夠解釋一個給定的模型或系統是如何工作的將是至關重要的,特別是對于那些由政府或公共部門機構使用的模型或系統。然而,光靠解釋并不是靈丹妙藥。雖然決策過程的透明度對于民主至關重要,但認為這是解決算法決策將給我們的社會帶來的困境的一種簡單解決方法是錯誤的。
原因有兩個。首先,對于一般的機器學習,特別是神經網絡或深度學習,在性能和可解釋性之間往往會有一個權衡。模型越大、越復雜,就越難解釋,盡管它的性能通常更好。不幸的是,對于具有許多交互影響的復雜情況,策略的許多關鍵領域都是如此,機器學習往往越是黑匣子就越有用。因此,追究這些系統的責任幾乎總是一個事后監測和評價的問題。例如,如果一個給定的機器學習算法的決策有明顯的偏差,那么系統或其所訓練的數據則需要進行修改。然而,即使是事后審計,說起來容易做起來難。在實踐中,令人驚訝的是,幾乎沒有對政策結果進行系統的監測,盡管在如何監測方面并不缺乏指導。
第二個原因是一個更為重大的挑戰。許多政策的目的往往不明確,典型的原因是政策是追求不同目標的人之間的妥協。當算法的任務是執行政策決策時,公共政策中的這些必要妥協對其提出了挑戰。公共政策中的妥協并不總是壞事;它使得決策者既能解決沖突,又能避免對所期望的確切結果提出尖銳的問題。然而,這是算法的一個主要問題,因為他們需要明確的目標才能發揮作用。強調更大的模型可解釋性永遠無法解決這一挑戰。
在自動決策或預測的許多領域,目標的困境不會突然出現,在這些領域中,受影響和運行蘇阿法的人的利益是一致的。然而,在公共決策的大多數領域,存在著多重重疊,有時甚至是相互競爭的利益。通常也存在信任缺失,特別是在刑事司法、治安和福利政策方面。在這種情況下,相信以算法強制實現的目標透明度將解決政治沖突是極其天真的。在部署機器進行決策之前,第一步不是堅持算法的可解釋性和透明度,而是恢復機構自身的可信度。
責任編輯:YYX
-
人工智能
+關注
關注
1796文章
47642瀏覽量
239786 -
機器學習
+關注
關注
66文章
8438瀏覽量
132958
發布評論請先 登錄
相關推薦
評論