對于人工智能而言,偏見仍然是一個問題。
人工智能正日益影響人們的日常生活,從加速尋找冠狀病毒疫苗到預測檢查結果。然而,人們越來越擔心組織和政府如何確保他們負責任地使用它,因此,調研機構Gartner公司今年將“負責任的人工智能”作為新興技術炒作周期中的一個新類別也就不足為奇了。該組織將其定義為“通過人工智能提高商業和社會價值、降低風險、增加信任和透明度以及減少偏差緩解”。Gartner公司認為,最緊迫的用例之一是在全球范圍內識別并停止生產深度偽造(deepfake)。
負責任的人工智能雖然是一個有價值的概念,但不足以將人工智能從潛在的偏見和歧視中解救出來。最近,人們對它的使用提出了質疑,從亞馬遜發現它用于招聘員工的算法對女性有偏見。
一旦人們對一項技術失去了信任,就很難再獲得回報。因此,開發和使用人工智能的組織要想提高人工智能應用程序的可信度和透明度,就必須超越負責任的人工智能。解決方案是實現可解釋人工智能(XAI),即以普通人能夠理解的方式描述人工智能解決方案的目的、原理和決策過程。
可解釋人工智能(XAI)將使部署解決方案的組織可以放心地以自己熟悉的方式進行決策。例如,在企業依賴特定個人的詳細知識的情況下,例如在客戶入職或金融部門的了解其客戶(KYC)檢查期間,至關重要的是,它可以快速輕松地證明每個決定的合理性,以避免任何偏見指控。
可解釋人工智能(XAI)還將確保那些受其決定影響的人可以更有信心地對他們進行公正的對待,而不受“變異算法”的描述。在公眾參與的領域,決策過程完全透明至關重要。感知到的偏見可能會導致人工智能在某個特定的應用中被完全禁止,例如最近的一項裁決,即南威爾士州警察使用自動面部識別技術是非法的。
從自愿采用可解釋人工智能(XAI)到法規
目前,可解釋人工智能(XAI)是可選的,盡管一些企業已經朝著這個方向邁出了一步。例如,今年亞馬遜公司宣布警方停止使用其面部識別產品一年,而IBM公司出于對人權影響的擔憂,決定完全放棄面部識別研究。
但是,監管只能是時間問題。2020年7月,ICO發布了指南,以幫助組織向受其影響的人們解釋由人工智能提供或協助的過程、服務和決策。該指南基于與艾倫?圖靈研究所聯合進行的公眾和行業參與研究。
根據英國發布《2018年數據保護法》,這不是法定的行為準則,而是有關最佳實踐的建議。但是預計組織很快將必須使人工智能系統從啟動就變得透明,這表明其算法以與數據保護法規兼容的方式處理數據。
犯錯是人之常情——謹防絕對正確的算法
組織可以使用許多技術來開發可解釋人工智能(XAI)。除了不斷地向系統學習新事物外,他們還需要確保它正在學習正確的信息,而不是使用一個錯誤或一條有偏見的信息作為未來所有分析的基礎。多語言語義搜索非常重要,尤其是對于非結構化信息。它們可以過濾掉白噪音,并將多次看到相同風險或機遇的風險降至最低。
組織還應該在其AI中添加人為元素,尤其是在建立監視列表時。如果系統自動標記犯罪定罪但不對其進行嚴重程度評分,則超速駕駛的人可能會被判處長期監禁。對于可解釋人工智能(XAI),系統應始終偏向正面。如果出現危險信號,則人工智能系統不應給出一個統一的“否”,而應發出警報以供人工檢查。
最后,即使是最好的人工智能系統也會產生一些錯誤。其性能應該是80%的正確率,否則就不可能相信系統運行正常。可以解決錯誤,并不斷調整性能,但是永遠不會完美。
人工智能顯然是未來的方式,因為它可以比人類更快地分析大量數據,并在廣泛的應用中提供幫助。確保開發可解釋人工智能(XAI)將建立依賴其決策的人們的信心,并幫助其在新領域中得到認可。
責任編輯:tzh
-
數據
+關注
關注
8文章
7134瀏覽量
89398 -
AI
+關注
關注
87文章
31490瀏覽量
269907 -
人工智能
+關注
關注
1794文章
47642瀏覽量
239667
發布評論請先 登錄
相關推薦
評論