色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

對監督機器學習的基本限制和目標進行深刻而簡潔的描述

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-09-24 08:51 ? 次閱讀

當貝葉斯、奧卡姆和香農一起給機器學習下定義,將統計學、信息理論和自然哲學的一些核心概念結合起來,我們便會會發現,可以對監督機器學習的基本限制和目標進行深刻而簡潔的描述。

令人有點驚訝的是,在所有機器學習的流行詞匯中,我們很少聽到一個將統計學、信息理論和自然哲學的一些核心概念融合起來的短語。

而且,它不是一個只有機器學習博士和專家懂得的晦澀術語,對于任何有興趣探索的人來說,它都具有精確且易于理解的含義,對于ML和數據科學的從業者來說,它具有實用的價值。

這個術語就是最小描述長度(Minimum Description Length)。

讓我們剝繭抽絲,看看這個術語多么有用……

貝葉斯和他的理論

我們從托馬斯·貝葉斯(Thomas Bayes)說起,順便一提,他從未發表過關于如何做統計推理的想法,但后來卻因“貝葉斯定理”而不朽。

Thomas Bayes

那是在18世紀下半葉,當時還沒有一個數學科學的分支叫做“概率論”。人們知道概率論,是因為亞伯拉罕 · 棣莫弗(Abraham de Moievre)寫的《機遇論》(Doctrine of Chances)一書。

1763年,貝葉斯的著作《機會問題的解法》(An Essay toward solving a Problem in the Doctrine of opportunities)被寄給英國皇家學會,但經過了他的朋友理查德·普萊斯(Richard Price)的編輯和修改,發表在倫敦皇家學會哲學匯刊。在那篇文章中,貝葉斯以一種相當繁復的方法描述了關于聯合概率的簡單定理,該定理引起了逆概率的計算,即貝葉斯定理。

自那以后,統計科學的兩個派別——貝葉斯學派和頻率學派(Frequentists)之間發生了許多爭論。但為了回歸本文的目的,讓我們暫時忽略歷史,集中于對貝葉斯推理的機制的簡單解釋。請看下面這個公式:

這個公式實際上告訴你,在看到數據/證據(可能性)之后更新你的信念(先驗概率),并將更新后的信念程度賦予后驗概率。你可以從一個信念開始,但每個數據點要么加強要么削弱這個信念,你會一直更新你的假設。

聽起來十分簡單而且直觀是吧?很好。

不過,我在這段話的最后一句話里耍了個小花招。你注意了嗎?我提到了一個詞“假設”。

在統計推理的世界里,假設就是信念。這是一種關于過程本質(我們永遠無法觀察到)的信念,在一個隨機變量的產生背后(我們可以觀察或測量到隨機變量,盡管可能有噪聲)。在統計學中,它通常被稱為概率分布。但在機器學習的背景下,它可以被認為是任何一套規則(或邏輯/過程),我們認為這些規則可以產生示例或訓練數據,我們可以學習這個神秘過程的隱藏本質。

因此,讓我們嘗試用不同的符號重新定義貝葉斯定理——用與數據科學相關的符號。我們用D表示數據,用h表示假設,這意味著我們使用貝葉斯定理的公式來嘗試確定數據來自什么假設,給定數據。我們把定理重新寫成:

現在,一般來說,我們有一個很大的(通常是無限的)假設空間,也就是說,有許多假設可供選擇。貝葉斯推理的本質是,我們想要檢驗數據以最大化一個假設的概率,這個假設最有可能產生觀察數據(observed data)。我們一般想要確定P(h|D)的argmax,也就是想知道哪個h的情況下,觀察到的D是最有可能的。為了達到這個目的,我們可以把這個項放到分母P(D)中,因為它不依賴于假設。這個方案就是最大后驗概率估計(maximum a posteriori,MAP)。

現在,我們應用以下數學技巧:

最大化對于對數與原始函數的作用類似,即采用對數不會改變最大化問題

乘積的對數是各個對數的總和

一個量的最大化等于負數量的最小化

那些負對數為2的術語看起來很熟悉是不是......來自信息論(Information Theory)!

讓我們進入克勞德·香農(Claude Shannon)的世界吧!

香農和信息熵

如果要描述克勞德·香農的天才和奇特的一生,長篇大論也說不完。香農幾乎是單槍匹馬地奠定了信息論的基礎,引領我們進入了現代高速通信和信息交流的時代。

香農在MIT電子工程系完成的碩士論文被譽為20世紀最重要的碩士論文:在這篇論文中,22歲的香農展示了如何使用繼電器和開關的電子電路實現19世紀數學家喬治布爾(George Boole)的邏輯代數。數字計算機設計的最基本的特征——將“真”和“假”、“0”和“1”表示為打開或關閉的開關,以及使用電子邏輯門來做決策和執行算術——可以追溯到香農論文中的見解。

但這還不是他最偉大的成就。

1941年,香農去了貝爾實驗室,在那里他從事戰爭事務,包括密碼學。他還研究信息和通信背后的原始理論。1948年,貝爾實驗室研究期刊發表了他的研究,也就是劃時代的題為“通信的一個數學理論”論文。

香農將信息源產生的信息量(例如,信息中的信息量)通過一個類似于物理學中熱力學熵的公式得到。用最基本的術語來說,香農的信息熵就是編碼信息所需的二進制數字的數量。對于概率為p的信息或事件,它的最特殊(即最緊湊)編碼將需要-log2(p)比特。

而這正是在貝葉斯定理中的最大后驗表達式中出現的那些術語的本質!

因此,我們可以說,在貝葉斯推理的世界中,最可能的假設取決于兩個術語,它們引起長度感(sense of length),而不是最小長度。

那么長度的概念是什么呢?

Length (h): 奧卡姆剃刀

奧卡姆的威廉(William of Ockham,約1287-1347)是一位英國圣方濟會修士和神學家,也是一位有影響力的中世紀哲學家。他作為一個偉大的邏輯學家而享有盛名,名聲來自他的被稱為奧卡姆剃刀的格言。剃刀一詞指的是通過“剔除”不必要的假設或分割兩個相似的結論來區分兩個假設。

奧卡姆剃刀的原文是“如無必要勿增實體”。用統計學的話說,我們必須努力用最簡單的假設來解釋所有數據。

其他杰出人物響應了類似的原則。

牛頓說:“解釋自然界的一切,應該追求使用最少的原理。”

羅素說:“只要有可能,用已知實體的結構去替代未知實體的推論。”

人們總是喜歡更短的假設。

那么我們需要一個關于假設的長度的例子嗎?

下面哪個決策樹的長度更小?A還是B?

即使沒有一個對假設的“長度”的精確定義,我相信你肯定會認為左邊的樹(A)看起來更小或更短。當然,你是對的。因此,更短的假設就是,它要么自由參數更少,要么決策邊界更不復雜,或者這些屬性的某種組合可以表示它的簡潔性。

那么Length(D | h)是什么?

給定假設是數據的長度。這是什么意思?

直觀地說,它與假設的正確性或表示能力有關。給定一個假設,它支配著數據的“推斷”能力。如果假設很好地生成了數據,并且我們可以無錯誤地測量數據,那么我們就根本不需要數據。

想想牛頓的運動定律。

牛頓運動定律第一次出現在《自然哲學的數學原理》上時,它們并沒有任何嚴格的數學證明。它們不是定理。它們很像基于對自然物體運動的觀察而做出的假設。但是它們對數據的描述非常好。因此它們就變成了物理定律。

這就是為什么你不需要記住所有可能的加速度數字,你只需要相信一個簡潔的假設,即F=ma,并相信所有你需要的數字都可以在必要時從這個假設中計算出來。它使得Length(D | h) 非常小。

但是如果數據與假設有很大的偏差,那么你需要對這些偏差是什么,它們可能的解釋是什么等進行詳細描述。

因此,Length(D | h)簡潔地表達了“數據與給定假設的匹配程度”這個概念。

實質上,它是錯誤分類(misclassication)或錯誤率( error rate)的概念。對于一個完美的假設,它是很短的,在極限情況下它為零。對于一個不能完美匹配數據的假設,它往往很長。

而且,存在著權衡。

如果你用奧卡姆剃刀刮掉你的假設,你很可能會得到一個簡單的模型,一個無法獲得所有數據的模型。因此,你必須提供更多的數據以獲得更好的一致性。另一方面,如果你創建了一個復雜的(長的)假設,你可能可以很好地處理你的訓練數據,但這實際上可能不是正確的假設,因為它違背了MAP 原則,即假設熵是小的。

將所有這些結合起來

因此,貝葉斯推理告訴我們,最好的假設就是最小化兩個項之和:假設的長度和錯誤率。

這句話幾乎涵蓋了所有(有監督)機器學習。

想想它的結果:

線性模型的模型復雜度——選擇多項式的程度,如何減少平方和殘差。

神經網絡架構的選擇——如何不公開訓練數據,達到良好的驗證精度,并且減少分類錯誤。

支持向量機正則化和kernel選擇——軟邊界與硬邊界之間的平衡,即用決策邊界非線性來平衡精度

我們真正得出的結論是什么?

我們從最小描述長度(MDL)原理的分析中得出什么結論?

這是否一勞永逸地證明了短的假設就是最好的?

沒有。

MDL表明,如果選擇假設的表示(representation)使得h的大小為-log2 P(h),并且如果異常(錯誤)的表示被選擇,那么給定h的D的編碼長度等于-log2 P(D | h),然后MDL原則產生MAP假設。

然而,為了表明我們有這樣一個表示,我們必須知道所有先驗概率P(h),以及P(D | h)。沒有理由相信MDL假設相對于假設和錯誤/錯誤分類的任意編碼應該是首選。

對于實際的機器學習,人類設計者有時可能更容易指定一種表示來獲取關于假設的相對概率的知識,而不是完全指定每個假設的概率。

這就是知識表示和領域專業知識變得無比重要的地方。它使(通常)無限大的假設空間變小,并引導我們走向一組高度可能的假設,我們可以對其進行最優編碼,并努力找到其中的一組MAP假設。

總結和思考

一個奇妙的事實是,如此簡單的一套數學操作就能在概率論的基本特征之上產生對監督機器學習的基本限制和目標的如此深刻而簡潔的描述。對這些問題的簡明闡述,讀者可以參考來自CMU的一篇博士論文《機器學習為何有效》(Why Machine Learning Works)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8438

    瀏覽量

    132961
  • 數據科學
    +關注

    關注

    0

    文章

    166

    瀏覽量

    10082

原文標題:當貝葉斯,奧卡姆和香農一起來定義機器學習

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習技術在圖像分類和目標檢測上的應用

    在本章中,我們將討論機器學習技術在圖像處理中的應用。首先,定義機器學習,并學習它的兩種算法——監督
    的頭像 發表于 10-20 10:52 ?1823次閱讀

    【下載】《機器學習》+《機器學習實戰》

    、謀發展的決定性手段,這使得這一過去為分析師和數學家所專屬的研究領域越來越為人們所矚目。本書第一部分主要介紹機器學習基礎,以及如何利用算法進行分類,并逐步介紹了多種經典的監督學習算法,
    發表于 06-01 15:49

    【阿里云大學免費精品課】機器學習入門:概念原理及常用算法

    的性能。2.機器學習是對能通過經驗自動改進的計算機算法的研究。3.機器學習是用數據或以往的經驗,以此優化計算機程序的性能標準。機器
    發表于 06-23 13:51

    如何用卷積神經網絡方法去解決機器監督學習下面的分類問題?

    人工智能下面有哪些機器學習分支?如何用卷積神經網絡(CNN)方法去解決機器學習監督學習下面的分類問題?
    發表于 06-16 08:09

    如何使用深度學習進行視頻行人目標檢測

    。由于深度神經網絡能夠通過多層表示的方式更加深刻描述目標特征,基于深度學習的檢測方法優點在于能夠準確檢測具有訓練數據中目標特征的
    發表于 11-19 16:01 ?22次下載
    如何使用深度<b class='flag-5'>學習</b><b class='flag-5'>進行</b>視頻行人<b class='flag-5'>目標</b>檢測

    你想要的機器學習課程筆記在這:主要討論監督學習和無監督學習

    with experience E(一個程序從經驗E中學習解決任務T進行某一任務量度P,通過P測量在T的表現而提高經驗E(另一種定義:機器學習是用數據或以往的經驗,以此優化計算機程序
    發表于 12-03 17:12 ?588次閱讀

    如何用Python進行監督學習

    監督學習是一種用于在數據中查找模式的機器學習技術。無監督算法給出的數據不帶標記,只給出輸入變量(X),沒有相應的輸出變量。在無監督學習中,
    的頭像 發表于 01-21 17:23 ?4305次閱讀

    監督機器學習如何保護金融

    監督機器學習是近年才發展起來的反欺詐手法。目前國內反欺詐金融服務主要是應用黑白名單、有監督學習和無監督
    發表于 05-01 22:11 ?1026次閱讀

    機器學習算法中有監督和無監督學習的區別

    監督學習的好處之一是,它不需要監督學習必須經歷的費力的數據標記過程。但是,要權衡的是,評估其性能的有效性也非常困難。相反,通過將監督學習算法的輸出與測試數據的實際標簽進行比較,可以很
    的頭像 發表于 07-07 10:18 ?5831次閱讀

    最基礎的半監督學習

    導讀 最基礎的半監督學習的概念,給大家一個感性的認識。 半監督學習(SSL)是一種機器學習技術,其中任務是從一個小的帶標簽的數據集和相對較大的未帶標簽的數據中
    的頭像 發表于 11-02 16:08 ?2698次閱讀

    監督學習最基礎的3個概念

    有趣的方法,用來解決機器學習中缺少標簽數據的問題。SSL利用未標記的數據和標記的數據集來學習任務。SSL的目標是得到比單獨使用標記數據訓練的監督學習
    的頭像 發表于 11-02 16:14 ?3018次閱讀
    半<b class='flag-5'>監督學習</b>最基礎的3個概念

    為什么半監督學習機器學習的未來?

    為什么半監督學習機器學習的未來。 監督學習是人工智能領域的第一種學習類型。從它的概念開始,無數的算法,從簡單的邏輯回歸到大規模的神經網絡,
    的頭像 發表于 11-27 10:42 ?3949次閱讀

    機器學習中若干典型的目標函數構造方法

    幾乎所有的機器學習算法都歸結為求解最優化問題。有監督學習算法在訓練時通過優化一個目標函數得到模型,然后用模型
    的頭像 發表于 12-26 09:52 ?4345次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>中若干典型的<b class='flag-5'>目標</b>函數構造方法

    機器學習的類型介紹

    機器學習可以分為監督學習,半監督學習,非監督學習,強化學習,深度
    發表于 03-12 16:01 ?3277次閱讀

    機器學習中的無監督學習應用在哪些領域

    監督學習|機器學習| 集成學習|進化計算| 非監督學習| 半監督學習| 自
    發表于 01-20 10:52 ?4993次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>中的無<b class='flag-5'>監督學習</b>應用在哪些領域
    主站蜘蛛池模板: 把内衣脱了把奶露出来 | 国产亚洲精品 在线视频 香蕉 | 国产女合集第六部 | 国产精品视频yy9099 | 国产一卡2卡3卡4卡孕妇网站 | 如懿传免费观看在线全集 | 在线亚洲中文精品第1页 | 久久免费看少妇高潮A片特爽 | 欧美 亚洲 日韩 中文2019 | thermo脱色摇床安卓下载 | 欧美特级特黄a大片免费 | 一品道门在线观看免费视频 | 色噜噜狠狠一区二区三区 | 天天躁夜夜踩很很踩2022 | 国产互换后人妻的疯狂VIDEO | 国产女人乱人伦精品一区二区 | 动漫美女人物被黄漫在线看 | 最近日本字幕免费高清 | 国产99久久九九免费精品无码 | 99成人在线 | 老王午夜69精品影院 | 背着老婆爆操性感小姨子 | 中文免费视频 | 欧洲video60 | 伊人久久大香线蕉影院95 | 2020年国产精品午夜福利在线观看 | 日韩亚洲欧美中文在线 | 青青青久久久 | 国产精品免费大片 | 国产白丝精品爽爽久久蜜臀 | 伊人久久五月丁婷婷 | 久久亚洲AV无码精品午色夜麻豆 | 久久热在线视频精品店 | 狠狠操伊人 | 国产高清砖码区 | 人善交XUANWEN200喷水 | 欧洲video60| 99pao成人国产永久免费视频 | 午夜阳光影院在线观看视频 | 天堂草原天黑黑 | 37pao成人国产永久免费视频 |