人工智能經常被提及的挑戰之一是無法獲得關于人工智能系統如何做出決策的充分理解的解釋。盡管這對于機器學習應用程序(例如產品推薦或個性化方案)而言可能不是挑戰,但在需要理解決策的關鍵應用程序中使用AI都會面臨透明性和可解釋性問題。
在最近的AI Today播客中,斯坦福大學計算機科學系戰略研究計劃主任Steve Eglash分享了有關透明和負責任的AI演變的見解和研究。Eglash教授是計算機科學系的一名工作人員,他與一小群人一起開展研究計劃,與大學以外的公司合作。這個小組幫助公司與學生共享觀點和技術,學生與公司共享技術。在加入斯坦福大學之前,史蒂夫是一名電氣工程師。在這個職位上,他介于技術和科學之間。在他最終進入學術界之前,他還從事過投資,政府,研究工作。
隨著AI在每個行業和政府中得到廣泛使用,深入了解AI使用的機會為斯坦福大學的學生提供了許多探索新領域的機會。充分了解人工智能的工作原理至關重要,因為我們越來越依賴人工智能來執行各種任務,例如自動駕駛汽車。在這些情況下,錯誤可能是致命的或導致嚴重的傷害或傷害。因此,更深入地研究透明和可解釋的AI系統可以使這些系統更加值得信賴和可靠。確保自動駕駛汽車等AI技術的安全至關重要。我們需要確保AI能夠安全運行。因此,我們需要能夠理解計算機做出決策的方式和原因。與此同時,
許多現代的AI系統都在神經網絡上運行,而我們僅了解其基礎知識,因為算法本身很少提供解釋方式。缺乏解釋性通常被稱為AI系統的“黑匣子”。研究人員將注意力集中在神經網絡如何工作的細節上。由于神經網絡的規模,很難檢查它們的錯誤。神經元及其權重之間的每個連接都增加了復雜性,使事后檢查決策變得非常困難。
Reluplex-透明AI的一種方法
驗證是證明神經網絡特性的過程。Reluplex是最近由許多人設計的一種程序,用于測試大型神經網絡。Reluplex背后的技術使其能夠在大型神經網絡中快速運行。Reluplex被用于測試自主無人機的機載碰撞檢測和回避系統。使用該程序時,該程序能夠證明網絡的某些部分可以正常工作。但是,它也能夠找到網絡中的錯誤,該錯誤可以在下一個實現中修復。
關于黑匣子的想法,可解釋性是史蒂夫提出的另一個領域。如果您有大型模型,是否可以了解模型如何進行預測?他以圖像識別系統為例,試圖了解海灘上狗的照片。它可以通過兩種方式識別狗。AI可以拍攝組成狗的像素并將其與狗關聯。另一方面,它可能需要圍繞狗的海灘和天空的像素來創建對狗在那里的了解。如果不了解系統是如何做出這些決定的,那么您將不知道網絡實際上正在接受什么培訓。
如果AI使用第一種方法來了解存在的狗,那么它正在以一種可以模擬我們自己的大腦工作方式的理性方式進行思考。但是,替代方法可以視為弱關聯,因為它不依賴包含狗的圖片的實際部分。為了確認AI是否正確處理了圖像,我們需要知道它是如何做到的,并且有很大一部分研究正在進行此任務以及與之相似的任務。
探索數據偏差
人工智能系統的數據偏差也是斯坦福大學的重點。根據用于訓練機器學習模型的數據,發現人工智能系統存在相當大的偏差。AI用來做決定的數據通常會導致偏差,因為計算機沒有進行公正分析所需的信息。除了有偏見的數據問題之外,系統本身也可以通過僅考慮特定的組而使決策偏向偏見。當您訓練機器學習模型以傾向于較大的數據組時,它很可能會偏向那些較大的組。
我們需要消除AI系統與人之間的互動越來越多的偏見。人工智能現在正在為人類做出決策,例如保險資格,人員再次犯罪的可能性以及其他可能改變生活的決策。人工智能做出的決定具有現實世界的后果,我們不希望計算機使不平等和不公正現象長期存在。
為了消除AI的偏見,數據科學家需要分析AI并根據社會偏見做出決策。至此,Percy Liang教授正在與他的學生們一起創造強大的分布優化,旨在擺脫人口統計學的影響,朝著機器的力量集中于所有人群的方向發展。其他研究人員正在致力于關注人工智能的公平與平等。
由于AI系統尚未證明其可解釋性和完全的可信賴性,因此Steve認為AI將主要以增強和輔助方式使用,而不是完全獨立。通過使人員處于循環中,我們可以更好地進行更改,以便在系統做出有問題的決策時保持警惕,并對AI輔助操作的最終結果施加更多控制。
-
神經網絡
+關注
關注
42文章
4779瀏覽量
101048 -
人工智能
+關注
關注
1794文章
47642瀏覽量
239662
發布評論請先 登錄
相關推薦
評論