XAI 主要解決以下問(wèn)題:對(duì)于使用者而言某些機(jī)器學(xué)習(xí)模型如同黑盒一般,給它一個(gè)輸入,決策出一個(gè)結(jié)果。比如大部分深度學(xué)習(xí)的模型,沒(méi)人能確切知道它決策的依據(jù)以及決策是否可靠。如圖 1 的 output 所示,為一般網(wǎng)絡(luò)給出的決策,缺乏可解釋性的結(jié)果讓使用者感到困惑,嚴(yán)重限制了其在現(xiàn)實(shí)任務(wù)中的廣泛應(yīng)用。
圖 1 如今的深度學(xué)習(xí) [1]
所以為了提高機(jī)器學(xué)習(xí)模型的可解釋性和透明性,使用戶(hù)和決策模型之間建立信任關(guān)系,近年來(lái)學(xué)術(shù)界進(jìn)行了廣泛和深入的研究并提出了可解釋的機(jī)器學(xué)習(xí)模型。如圖 2,模型在決策的同時(shí)給出相應(yīng)的解釋?zhuān)垣@得用戶(hù)的信任和理解。
圖 2 可解釋的機(jī)器學(xué)習(xí) [1]
對(duì)于機(jī)器學(xué)習(xí)模型來(lái)說(shuō),我們常常會(huì)提到2個(gè)概念:模型準(zhǔn)確性(accuracy)和模型復(fù)雜度(complexity)。模型的復(fù)雜度與準(zhǔn)確性相關(guān),又與模型的可解釋性相對(duì)立。因此我們希望找到一種模型如圖 3 所示,具有可解釋性的同時(shí)盡可能保證模型的準(zhǔn)確性和復(fù)雜度。
編輯:hfy
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
-
機(jī)器學(xué)習(xí)
-
深度學(xué)習(xí)
相關(guān)推薦
模型的可解釋性是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,隨著 AI 應(yīng)用范圍的不斷擴(kuò)大,人們?cè)絹?lái)越不滿(mǎn)足于模型的黑盒特性,與此同時(shí),金融、自動(dòng)駕駛等領(lǐng)域
發(fā)表于 09-28 10:17
?1044次閱讀
通過(guò)建立既可解釋又準(zhǔn)確的模型來(lái)改良這種錯(cuò)誤的二分法。關(guān)鍵是將神經(jīng)網(wǎng)絡(luò)與決策樹(shù)相結(jié)合,在使用神經(jīng)網(wǎng)絡(luò)進(jìn)行低級(jí)決策時(shí)保留高級(jí)的可解釋性。
發(fā)表于 05-31 10:51
?8569次閱讀
如果考察某些類(lèi)型的“事后可解釋性”(post-hoc interpretable),深度神經(jīng)網(wǎng)絡(luò)具有明顯的優(yōu)勢(shì)。深度神經(jīng)網(wǎng)絡(luò)能夠學(xué)習(xí)豐富的表示,這些表示能夠可視化、用語(yǔ)言表達(dá)或用于聚類(lèi)。如果考慮對(duì)可解釋性的需求,似乎線(xiàn)性
發(fā)表于 07-24 09:58
?2w次閱讀
神經(jīng)網(wǎng)絡(luò)的可解釋性,從經(jīng)驗(yàn)主義到數(shù)學(xué)建模
發(fā)表于 06-27 10:54
?5275次閱讀
Google Cloud AI戰(zhàn)略總監(jiān)Tracy Frey在 今天的博客中解釋說(shuō),Explainable AI旨在提高機(jī)器學(xué)習(xí)模型的可解釋性
發(fā)表于 03-24 15:14
?2980次閱讀
決策樹(shù)模型是白盒模型的一種,其預(yù)測(cè)結(jié)果可以由人來(lái)解釋。我們把機(jī)器學(xué)習(xí)模型的這一特性稱(chēng)為
發(fā)表于 07-06 09:49
?3638次閱讀
模型可解釋性方面的研究,在近兩年的科研會(huì)議上成為關(guān)注熱點(diǎn),因?yàn)榇蠹也粌H僅滿(mǎn)足于模型的效果,更對(duì)模型效果的原因產(chǎn)生更多的思考,這...
發(fā)表于 12-10 20:19
?805次閱讀
:https://arxiv.org/pdf/2012.15445.pdf 參考文獻(xiàn) 0.Abstract近年來(lái),深度學(xué)習(xí)模型的可解釋性研究在圖像和文本領(lǐng)域取得了顯著進(jìn)展
發(fā)表于 04-09 11:42
?2713次閱讀
伴隨著模型復(fù)雜度的增加,機(jī)器學(xué)習(xí)算法的可解釋性越差,至今,機(jī)器學(xué)習(xí)的
發(fā)表于 01-25 08:35
?1190次閱讀
本文介紹目前常見(jiàn)的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù)。
發(fā)表于 02-26 17:20
?2241次閱讀
本文介紹目前常見(jiàn)的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。
發(fā)表于 02-16 16:21
?4760次閱讀
模型解釋性 幫助開(kāi)發(fā)人員和其他利益相關(guān)者理解模型特征和決策的根本原因,從而使流程更加透明。能夠解釋模
發(fā)表于 04-21 09:25
?2553次閱讀
可解釋機(jī)器學(xué)習(xí)
發(fā)表于 06-17 14:41
?1次下載
在實(shí)踐中,人工智能的規(guī)模化應(yīng)用推廣,在很大程度上依賴(lài)于用戶(hù)能否充分理解、合理信任并且有效管理人工智能這一新型伙伴。為此,確保人工智能產(chǎn)品、服務(wù)和系統(tǒng)具有透明性(Transparency)與可解釋性(Explainability)是至關(guān)重要的。
發(fā)表于 08-09 10:04
?1951次閱讀
本文介紹目前常見(jiàn)的幾種可以提高機(jī)器學(xué)習(xí)模型的可解釋性的技術(shù),包括它們的相對(duì)優(yōu)點(diǎn)和缺點(diǎn)。
發(fā)表于 02-08 14:08
?1303次閱讀
評(píng)論