概要:隨著大數據的快速發展,以概率統計為基礎的機器學習在近年來受到工業界和學術界的極大關注,并在視覺、語音、自然語言、生物等領域獲得很多重要的成功應用。
摘要
隨著大數據的快速發展,以概率統計為基礎的機器學習在近年來受到工業界和學術界的極大關注,并在視覺、語音、自然語言、生物等領域獲得很多重要的成功應用,其中貝葉斯方法在過去20多年也得到了快速發展,成為非常重要的一類機器學習方法.總結了貝葉斯方法在機器學習中的最新進展,具體內容包括貝葉斯機器學習的基礎理論與方法、非參數貝葉斯方法及常用的推理方法、正則化貝葉斯方法等.最后,還針對大規模貝葉斯學習問題進行了簡要的介紹和展望,對其發展趨勢作了總結和展望。
關鍵詞
貝葉斯機器學習;非參數方法;正則化方法;大數據學習;大數據貝葉斯學習
機器學習是人工智能及模式識別領域的共同研究熱點,其理論和方法已被廣泛應用于解決工程應用和科學領域的復雜問題.2010年的圖靈獎獲得者為哈佛大學的LeslieValliant授,其獲獎工作之一是建立了概率近似正確(probably approximate correct,PAC)學習理論;2011年的圖靈獎獲得者為加州大學洛杉磯分校的JudeaPearl教授,其主要貢獻為建立了以概率統計為理論基礎的人工智能方法,其研究成果促進了機器學習的發展和繁榮。
機器學習的一個重要分支是貝葉斯機器學習,貝葉斯方法最早起源于英國數學家托馬斯·貝葉斯在1763年所證明的一個關于貝葉斯定理的一個特例[1-2].經過多位統計學家的共同努力,貝葉斯統計在20世紀50年代之后逐步建立起來,成為統計學中一個重要的組成部分[2-3]。貝葉斯定理因為其對于概率的主觀置信程度[4]的獨特理解而聞名。此后由于貝葉斯統計在后驗推理、參數估計、模型檢測、隱變量概率模型等諸多統計機器學習領域方面有廣泛而深遠的應用[5-6]。從1763年到現在已有250多年的歷史,這期間貝葉斯統計方法有了長足的進步[7]。在21世紀的今天,各種知識融會貫通,貝葉斯機器學習領域將有更廣闊的應用場景,將發揮更大的作用。
1.貝葉斯學習基礎
本節將對貝葉斯統計方法進行簡要的介紹[5]:主要包括貝葉斯定理、貝葉斯模型的推理方法、貝葉斯統計學的一些經典概念。
1.1貝葉斯定理
用表示概率模型的參數,D表示給定的數據集.在給定模型的先驗分布和似然函數的情況下,模型的后驗分布可以由貝葉斯定理(也稱貝葉斯公式)獲得[2]:
???(1)
其中是模型的邊緣似然函數。
貝葉斯定理已經廣為人知,這里介紹一種與貝葉斯公式等價但很少被人知道的表現形式,即基于優化的變分推理:
?? ??(2)
其中P為歸一化的概率分布空間??梢宰C明,式(2)中的變分優化的最優解等價于式(1)中的后驗推理的結果[8]。這種變分形式的貝葉斯定理具有兩方面的重要意義:1)它為 變分貝葉斯方法[9](variational Bayes)提供了理論基礎;2)提供了一個很好的框架 以便于引用后驗約束,豐富貝葉斯模型的靈活性[10]。這兩點在后面的章節中將具體闡述。
1.2貝葉斯機器學習
貝葉斯方法在機器學習領域有諸多應用,從單變量的分類與回歸到多變量的結構化輸出預測、從有監督學習到無監督及半監督學習等,貝葉斯方法幾乎用于任何一種學習任務.下面簡要介紹較為基礎的共性任務。
1)預測。給定訓練數據D,通過貝葉斯方法得到對未來數據x的預測[5]:
?? ? ? ? ? ?? (3)
需要指出的是,當模型給定時,數據是來自于獨立同分布的抽樣,所以通常簡化為。
2)模型選擇。另一種很重要的貝葉斯方法的應用是模型選擇[11],它是統計和機器學習領域一個較為基礎的問題。用M表示一族模型(如線性模型),其中每個元素Θ是一個具體的模型。貝葉斯模型選擇通過比較不同族模型的似然函數來選取最優的:
?? (4)
當沒有明顯先驗分布的情況下,被認為是均勻分布.通過式(4)的積分運算,貝葉斯模型選擇可以避免過擬合。
關于貝葉斯統計和貝葉斯學習更為詳細的內容,有些論文和教材有更進一步的說明]。
2非參數貝葉斯方法
在經典的參數化模型中模型的參數個數是固定的,不會隨著數據的變化而變化.以無監督的聚類模型為例,如果能通過數據本身自動學習得到聚類中心的個數,比參數化模型(如K均值、高斯混合模型等)根據經驗設定一個參數要好得多;這也是非參數模型一個較為重要的優勢。相比較參數化貝葉斯方法,非參數貝葉斯方法(nonparametric Bayesian methods)因為其先驗分布的非參數特性,具有描述數據能力強的優點[13],非參數貝葉斯方法因此在2000年以后受到較多關注[14]。例如具有未知維度的隱式混合模型[15]和隱式特征模型[16]、描述連續函數的高斯過程[17]等。需要強調的是非參數化貝葉斯方法并不是指模型沒有參數,而是指模型可以具有無窮多個參數,并且參數的個數可以隨著數據的變化而自適應變化,這種特性對于解決大數據環境下的復雜應用問題尤其重要,因為大數據的特點之一是動態多變。下面將主要針對其中的一些較為重要的模型和推理方法進行簡要介紹。
2.1狄利克雷過程
狄利克雷過程(Dirichletprocess, DP)是統計學家Ferguson于1973年提出的一個定義在概率測度Ω上的隨機過程[18],其參數有集中參數α>0和基底概率分布
,通常記為G~。狄利克雷過程得到的概率分布是離散型的,因此非常適合構建混合模型,例如,Antoniak于1974年通過給每個數據點增加一個生成概率,構造了一個狄利克雷過程混合模型(Dirichlet process mixture, DPM)[15],即???? ? ? ? ?
?(5)
其中,是生成每個數據點概率分布的參數,比如高斯分布的均值和協方差等,N為數據點的個數。
與狄利克雷過程等價的一個隨機過程是中國餐館過程(Chinese restaurant process, CRP)[19]。中國餐館過程是定義在實數域上的具有聚類特性的一類隨機過程,也因為其特有的較好展示特性而被經常使用。如圖1所示,在中國餐館過程中,假設有無限張餐桌和若干客人;其中第1名顧客選擇第1張餐桌,之后的顧客按照多項式分布選擇餐桌,其中選擇每張餐桌的概率正比于該餐桌現在所坐的人數,同時以一定概率(正比于參數α)選擇一個沒人的餐桌.可以看到,當所有的客人選擇完畢餐桌,我們可以按照餐桌來對客人進行一個劃分.這里每張餐桌代表一個聚類,每個客人代表一個數據點。
可以證明所有的聚類點參數θ可以通過式(6)得到:
?(6)
將狄利克雷混合模型中的G積分即可得到中國餐館過程,這也說明了兩個隨機過程的關系.這種簡潔的表述也很有利于馬爾可夫蒙特卡洛方法的采樣[20]。
另一種構造性的狄利克雷過程的表述是截棍過程(stickbreaking construction)[21].具體地說,將一根單位長度的棍,第k次切割都按照剩下的長度按照貝塔分布的隨機變量,按比例切割:
(7)
即如圖2所示,對于一根長度為單位1的棍,第1次切割長度,以后每次切割都切割剩下部分的比例長度。狄利克雷過程的截棍表述是變分推理的基礎[22]。
2.2印度自助餐過程
與混合模型中每一個數據點只屬于一個聚類不同,在特征模型中每一個數據點可以擁有多個特征,這些特征構成了數據生成的過程。這也符合實際情況中樣本數據點有多個屬性的實際需求。經典的特征模型主要有因子分析(factor analysis)、主成分分析(principal component analysis)[24-25]等。在傳統的特征模型中,特征的數目是確定的,這給模型的性能帶來一定限制.印度自助餐過程(indian buffet process, IBP)是2005年提出的[26],因其非參數特性能從數據中學習得到模型中的特征個數,使得模型能夠更好地解釋數據,已經在因子分析、社交網絡鏈接預測等重要問題中應用[27-29]。
以二值(“0”或“1”)特征為例,假設有N個數據點,所有數據點的特征向量組成一個特征矩陣,IBP的產生式過程可以形象地類比為N個顧客到一個無窮多個餐品的自助餐館進行選餐的過程,用“1”表示選擇,“0”表示不選擇,具體描述如圖3所示的方法進行:
1)第1名顧客選擇個餐品,其中;
2)第2名及以后的顧客有兩種情況:1.對于已經被選過的餐品,按照選擇該餐品的人數成正比的概率選擇該餐品;2.選擇個未被選過的餐品,其中。
與中國餐館過程類似,印度自助餐過程也有其對應的截棍過程[30].這里不再贅述,僅列出其構造性表述如下:
(8)
但是與中國餐館過程的截棍過程不同的是棍的長度之和并不為1.印度自助餐過程也有其對應的采樣方法和變分優化求解方法[16,30-31]。
2.3應用及擴展
貝葉斯方法特別是最近流行的非參數貝葉斯方法已廣泛應用于機器學習的各個領域,并且收到了很好的效果[32]。這里簡要提出幾點應用和擴展;對于大規模貝葉斯學習的相關應用將在第5節介紹,也可查閱相關文獻[13-14,33]。
經典的非參數化貝葉斯方法通常假設數據具有簡單的性質,如可交換性或者條件獨立等;但是,現實世界中的數據往往具有不同的結構及依賴關系。為了適應不同的需求,發展具有各種依賴特性的隨機過程得到了廣泛關注。例如,在對文本數據進行主題挖掘時,數據往往來自不同的領域或者類型,我們通常希望所學習的主題具有某種層次結構,為此,層次狄雷克利過程(hierarchical Dirichlet process, HDP)[34]被提出,可以自動學習多層的主題表示,并且自動確定主題的個數.另外,具有多個層次的IBP過程也被提出[35],并用于學習深層置信網絡的結構,包括神經元的層數、每層神經元的個數、層間神經元的連接結構等。其他的例子還包括具有馬爾可夫動態依賴關系的無限隱馬爾可夫模型[36]、具有空間依賴關系的狄雷克利過程[37]等。
另外,對于有監督學習問題,非參數貝葉斯模型最近也受到了廣泛的關注.例如,社交網絡數據建模和預測是一個重要的問題,近期提出的基于IBP的非參數化貝葉斯模型[27,29]可以自動學習隱含特征,并且確定特征的個數,取得很好的預測性能。使用DP混合模型同時作聚類和分類任務也取得了很好的結果[38]。
3貝葉斯模型的推理方法
貝葉斯模型的推理方法是貝葉斯學習中重要的一環,推理方法的好壞直接影響模型的性能。具體地說,貝葉斯模型的一個關鍵性的問題是后驗分布通常是不可解的,使得式(3)和式(4)中的貝葉斯積分也是不可解的。這時,就需要一些有效的推理方法。一般而言,主要有兩類方法:變分推理方法(varia-tional inference)和蒙特卡洛方法(Monte Carlo methods)。這兩類方法都在貝葉斯學習領域有廣泛的應用,下面分別介紹這兩類方法。
3.1變分推理方法
變分法是一種應用較廣的近似優化方法[39-40],在物理、統計學、金融分析、控制科學領域解決了很多問題。在機器學習領域,變分方法也有較多應用:通過變分分析,可以將非優化問題轉化成優化問題求解,也可以通過近似方法對一些較難的問題進行變分求解[41]。
在變分貝葉斯方法中,給定數據集D和待求解的后驗分布,變分方法界定其后驗分布的近似分布為。運用杰森不等式,可以得到對數似然的一個下界(evidence lower bound,ELOB)。
??(9)
通過最大化該對數似然下界:
??(10)
或者最小化和之間的KL散度,就可以完成優化求解的過程。因此,變分推理的基本思想是將原問題轉化成求解近似分布的優化問題,結合有效的優化算法來完成貝葉斯推理的任務[22,42-43]。
很多時候,模型Θ中往往有一些參數θ和隱變量h。這時變分問題可以通過變分期望最大化方法求解(variational EM algorithm):通過引入平均場假設(mean-fieldassumption),可以迭代進行EM算法[44]。
3.2蒙特卡洛方法
蒙特卡洛方法是一類通過利用模擬隨機數對未知的概率分布進行估計;當未知分布很難直接估計或者搜索空間太大、計算太復雜時,蒙特卡洛方法就成為重要的推理和計算方法[45-46]。例如,貝葉斯機器學習通常需要計算某個函數在某種分布(先驗或者后驗)下的期望,而這種計算通常是沒有解析解的。假設是一個概率分布,目標是計算如下積分:
??(11)
蒙特卡洛方法的基本思想是使用如下估計來近似I:
??(12)
其中是從P中得到的采樣。根據大數定律,在采樣數目足夠多時,蒙特卡洛方法可以很好地估計真實期望。
上面描述的是蒙特卡洛方法的基本原理,但實際過程中p的采樣并不是很容易就可以得到,往往采用其他的方法進行,常用的方法有重要性采樣(importance sampling)、拒絕采樣(rejection sampling)、馬爾可夫蒙特卡洛方法(Markov Chain Monte Carlo, MCMC)等。前兩者在分布相對簡單時比較有效,但是對于較高維空間的復雜分布效果往往不好,面臨著維數災難的問題。下面重點介紹MCMC方法,它在高維空間中也比較有效。
MCMC方法的基本思想是構造一個隨機的馬爾可夫鏈,使得其收斂到指定的概率分布,從而達到推理的目的[47]。一種較為常用的MCMC方法是Metropolis-Hastings算法[48](MH算法)。在MH算法中,通過構造一個從狀態到狀態的轉移規則:
1)根據從舊的狀態采樣中得到一個新的狀態采樣;
2)計算接受概率:
?(13)
3)從0-1均勻分布中采樣得到[0, 1]。若,則接受采樣,否則拒絕采樣。
另一種常用的MCMC方法是吉布斯采樣(Gibbs sampling)[46,49],它是MH算法的一種特例,吉布斯采樣已廣泛應用在貝葉斯分析的推理中。吉布斯采用是對多變量分布中每一個變量在其他已經觀察得到采樣的變量已知的條件下依次采樣,更新現有的參數,最后收斂得到目標后驗分布。假設需要采樣的多元分布為,即每次選出一個維度j:1≤j≤d,其中d是多元分布的維度;隨后從條件概率分布對進行采樣。
有很多貝葉斯模型都采用了MCMC的方法進行推理,取得了很好的效果[20,30,50]。除此之外,還有一類非隨機游走的MCMC方法———LangevinMCMC[51]和Hybrid MonteCarlo[52]。這一類方法往往有更快的收斂速度,但是表述的復雜程度較大,因此受歡迎程度不及吉布斯采樣,但是,最近在大數據環境下發展的基于隨機梯度的采樣方法非常有效,后文將會簡要介紹。
4正則化貝葉斯理論及應用舉例
在第2節中提到了貝葉斯方法的兩種等價表現方式,一種是后驗推理的方式,另一種是基于變分分析的優化方法,其中第2種方式在近年有了較大發展.基于這種等價關系,我們近年來提出了正則化貝葉斯(regularized Bayesian inference, RegBayes)理論[10]:如圖4所示,在經典貝葉斯推理過程中,后驗分布只能從兩個維度來獲得,即先驗分布和似然函數;而在正則化貝葉斯推理中,后驗推理轉化成一種變分優化的方式,通過引入后驗正則化,為貝葉斯推理提供了第3維自由度,極大地豐富了貝葉斯模型的靈活性。在RegBayes理論的指導下,我們系統研究了基于最大間隔準則的判別式貝葉斯學習以及結合領域知識的貝葉斯學習等,取得了一系列的成果[]。
正則化貝葉斯推理的基本框架可以簡述如下,在式(2)的基礎上,引入后驗正則化項,考慮領域知識或者期望的模型屬性:
(14)
其中是一個凸函數。在運用RegBayes解決具體問題時需要回答下面3個問題:
問題1.后驗正則化從何而來.后驗正則化是一個通用的概念,可以涵蓋任何期望影響后驗分布的信息。比如,在有監督學習任務(如圖像/文本分類)中,我們期望后驗分布能夠準確地預測,這種情況下我們可以將分類錯誤率(或者某種上界)作為優化目標,通過后驗正則化引用到學習過程中,典型的例子包括無限支持向量機[38](infinite SVM)、無限隱式支持向量機[56](infinitelatent SVM)、最大間隔話題模型[57](maximummargin supervised topic model, MedLDA)等,這些方法均采用了最大間隔原理,在貝葉斯學習過程中直接最小化分類錯誤率的上界(即鉸鏈損失函數),在測試數據上取得顯著的性能提升。
另外,在一些學習任務中,一些領域知識(如專家知識或者通過眾包方式收集到的大眾知識)可以提供數據之外的一些信息,對提高模型性能有很大幫助。在這種情況下,可以將領域知識作為后驗約束,與數據一起加入模型中,實現高效貝葉斯學習。需要指出的是大眾知識往往存在很大的噪音,如何采取有效的策略過濾噪音實現有效學習是問題的關鍵。在這方面,我們提出了將使用邏輯表達的領域知識魯棒地引入貝葉斯主題模型,實現了更優秀的模型效果[58]。
問題2.先驗分布、似然函數以及后驗正則化之間有何關系。先驗分布是與數據無關的,基于先驗知識的概率分布不能反映數據的統計特性;似然函數則是基于數據產生的概率分布,反映了數據的基本性質,通常定義為具有良好解析形式的歸一化的概率分布。而后驗正則化項同樣是利用數據的特性來定義的,但是,它具有更廣泛靈活的方式,不受歸一化的約束,因此,可以更方便準確地刻畫問題的屬性或者領域知識,如問題1中所舉的最大間隔學習以及領域知識與貝葉斯統計相結合等示例。甚至可以證明,一些后驗分布不可以通過貝葉斯定理得到,但是可以通過后驗正則化得到[10]。因此,RegBayes是比經典貝葉斯方法更靈活更強大的方法。
問題3.如何求解優化問題。雖然正則化貝葉斯具有極強的靈活性,其學習算法仍然可以使用變分方法或者蒙特卡洛方法進行求解,具體的求解方法請閱讀相關論文。下面介紹的大數據貝葉斯學習理論和算法均可以應用到快速求解正則化貝葉斯模型[55],這也是目前的研究熱點。
5大數據貝葉斯學習
隨著互聯網技術的發展,研究面向大數據的機器學習理論、算法及應用成為當前研究的熱點[[59]59],得到學術界和工業界的廣泛關注。貝葉斯模型有較好的數據適應性和可擴展性,在很多經典問題上都取得了很好的效果,但是,傳統貝葉斯模型的一個較大的問題在于其推理方法通常較慢,特別是在大數據背景下很難適應新的模型的要求。因此,如何進行大規模貝葉斯學習方法是學術界的重要挑戰之一。可喜的是近期在大數據貝葉斯學習(big Bayesian learning, BigBayes)方面取得了顯著的進展。下面簡單介紹在隨機算法及分布式算法方面的進展,并以我們的部分研究成果作為示例。表1所示為對目前的若干前沿進展簡要總結:
5.1隨機梯度及在線學習方法
當數據量較大時精確的算法往往耗時較長,不能滿足需要。一類常用的解決方案是采用隨機近似算法[60-61]。這類算法通過對大規模數據集的多次隨機采樣(random subsampling),可以在較快的時間內收斂到較好的結果。這種思想已經在變分推理和蒙特卡洛算法中廣泛采用,簡要介紹如下。
在變分推理方面,如前所述,其核心是求解優化問題,因此,基于多次隨機降采樣的隨機梯度下降算法成為很自然的選擇。具體地說,隨機梯度下降算法(stochastic gradient descent, SGD)[62]每次隨機選取一個數據子集,并用該子集上計算的梯度估計整個數據集上的梯度,對要求解的參數進行更新:
?(15)
其中Q是待優化的目標函數,是數據的第t個子集。值得注意的是,歐氏空間中的梯度并非最優的求解變分分布的方向;對于概率分布的尋優,自然梯度往往取得更快的收斂速度[63]。近期的主要進展包括隨機變分貝葉斯方法[61]以及多種利用模型特性的快速改進算法[64][64]。
在蒙特卡洛算法方面,可以將隨機梯度的方法用于改進對應的基于梯度的采樣算法,如隨機梯度朗之萬動力學采樣方法(stochastic gradient langevin dynamics, SGLD)[65]、隨機梯度哈密爾頓蒙特卡洛(stochasticHamiltonian Monte Carlo, SHM)[66][66]。這些算法加快了蒙特卡洛采樣的速度、有較好的效果。
例1.為了適應動態流數據的處理需求,基于在線學習的大規模貝葉斯推理算法也成為近期的研究熱點,主要工作包括流數據變分貝葉斯[67]等。我們近期提出了在線貝葉斯最大間隔學習(online Bayesian passive-aggressive learning, Online BayesPA)框架,顯著提高了正則化貝葉斯的學習效率,并且給出了在線學習后悔值的理論界[55]。在100多萬的維基百科頁面數據上的部分實驗結果如圖5所示,可以看出,基于在線學習的算法比批處理算法快100倍左右,并且不損失分類的準確率。
5.2分布式推理算法
另一種適用于大規模貝葉斯學習問題的算法是基于分布式計算的[68],即部署在分布式系統上的貝葉斯推理算法。這類算法需要仔細考慮算法的實際應用場景,綜合考量算法計算和通信的開銷,設計適合于不同分布式系統的推理算法。
一些算法中的部分參數之間不需要交換信息,只需要計算得到最后結果匯總即可;對于這類問題,只需要對原算法進行適當優化,部署在系統上即可有較好的效果。但是,還有更多算法本身并不適合并行化處理,這就意味著算法本身需要修改,使得其可以進行分布式計算,這也是大規模貝葉斯學習的研究熱點之一,并且已經取得很多重要進展,包括分布式變分推理[67]和分布式蒙特卡洛方法[69]等。
例2.以主題模型為例,經典的模型使用共軛狄利克雷先驗,可以學習大規模的主題結構[70],但是,不能學習主題之間的關聯關系。為此,使用非共軛Logistic-Normal先驗的關聯主題模型(correlated topic model, CTM)[71]被提出。CTM的缺點是其推理算法比較困難,已有的算法只能處理幾十個主題的圖結構學習。為此,筆者課題組近期提出了CTM的分布式推理算法[72],可以處理大規模的數據集,學習上千個主題之間的圖結構。該算法的部分結果如表2所示,其中D表示數據集大小,K表示主題個數。由表2可以看出分布式推理算法(即gCTM)極大地提高了模型可以承載的數據量(如600萬的維基百科網頁)和更多的主題個數(如1000)。這個項目的代碼及更多信息已經公布,讀者可以自行瀏覽[73]。
在上述大規模主題圖結構的學習基礎上,進一步開發了“主題全景圖”(TopicPanorama)可視化界面,它可以將多個主題圖結構進行融合,并且以用戶友好的方式展現在同一個界面上,如圖6所示,其中每個節點代表一個主題,節點之間的邊代表相關聯關系,邊的長度代表關聯強度,所用數據集為微軟、谷歌、雅虎等3個IT公司相關的新聞網頁。該可視化工具具有多種交互功能,用戶可以使用放大或縮小功能對主題圖的局部進行仔細查看,同時,也可以修改圖的結構并反饋給后臺算法進行在線調整。多位領域專家一致同意該工具可以方便分析社交媒體數據。更多具體描述參見文獻[74]。
5.3基于硬件的加速
隨著硬件的發展,使用圖形處理器(graphics processing units, GPU)、現場可編程邏輯門陣列(field-programmablegate array, FPGA)等硬件資源對貝葉斯學習方法進行加速也是最近興起的研究熱點。例如,有研究者利用GPU技術對話題模型的變分方法[75]和MCMC算法[76-77]進行加速,還有一些研究者利用FPGA對蒙特卡洛算法[78]進行加速。利用強大的硬件設備,搭配適當的模型和算法架構,可以起到事半功倍的效果。
6總結與展望
貝葉斯統計方法及其在機器學習領域的應用是貝葉斯學習的重要研究內容。因為貝葉斯理論的適應性和可擴展性使得貝葉斯學習得到廣泛的應用.非參數貝葉斯方法和正則化貝葉斯方法極大地發展了貝葉斯理論,使其擁有更加強大的生命力。
近年來,大數據貝葉斯學習成為人們關注的焦點,如何加強貝葉斯學習的靈活性以及如何加快貝葉斯學習的推理過程,使其更加適應大數據時代的挑戰成為人們考慮的問題。在這一時期許多新的方法和理論將被提出,貝葉斯學習也與其他許多方面的知識相結合,如并行計算、數據科學等,產生很多新的成果??梢灶A想,貝葉斯學習肯定會有更多更新更好的成果,也會在將來有更廣泛的應用。
-
貝葉斯
+關注
關注
0文章
77瀏覽量
12585 -
機器學習
+關注
關注
66文章
8438瀏覽量
132912 -
大數據
+關注
關注
64文章
8905瀏覽量
137640
原文標題:貝葉斯機器學習前沿進展
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論