色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

詳解機器學習和深度學習常見的正則化

汽車玩家 ? 來源:CSDN ? 作者:修煉之路 ? 2020-01-29 17:52 ? 次閱讀

前言

說到正則化大家應該都不陌生,這個在機器學習深度學習中都是非常常見的,常用的正則化有L1正則化和L2正則化。提到正則化大家就會想到是它會將權重添加到損失函數計算中來降低模型過擬合的程度。了解更多一點的同學還會說,L1正則化會讓模型的權重參數稀疏化(部分權重的值為0),L2正則化會讓模型的權重有趨于0的偏好。

不知道大家有沒有想過為什么L1正則化會讓部分權重的值為0?為什么L2正則化會讓權重會有偏向于0?為什么正則化可以防止過擬合?正則化究竟是怎么來的? 帶著這些問題,我們來看這篇文章,會幫助大家一一解答。

正則化的由來

在介紹正則化之前,我們先來看一張圖

詳解機器學習和深度學習常見的正則化

在上圖中我們繪制了三條不同的曲線y1、y2、y3 ,從曲線函數值的變化不難看出,y1的函數值變化最大,y2和y3的函數值相對來說要平緩一些。通過函數的表達式可以看出,y2 相對于y1 來說自變量的系數值變小了,y3相對y1 來說自變量少了一個,我們可以理解為少的那個自變量的系數為0。

通常如果函數的取值變化的幅度更大,我們會認為函數更復雜,函數的方差更大。所以,上面的三個函數中,函數y1的復雜度最高。通過函數圖像可以發現,降低自變量的系數值,或者減少函數自變量的個數等價于自變量的系數為0是可以降低函數復雜度的。

在構建模型之前,我們是不知道數據的分布,如果模型過于簡單就會導致欠擬合,如果模型過于復雜就會過擬合。通常我們為了模型能夠更好的擬合數據都是使得模型處于過擬合,為了降低模型的過擬合就需要使得模型部分權重為0或者降低模型的權重,所以我們會為損失函數添加一個懲罰項,數學表達式如下

詳解機器學習和深度學習常見的正則化

上式中的J(θ;X,y)表示原目標函數(沒有添加正則化),Ω(θ)表示模型參數的懲罰項,懲罰項系數α∈[0,∞) ,α 越大表示正則化懲罰越大。

需要注意:我們在對模型的參數做懲罰的時候,其實只是添加了模型的權重參數并不包括偏置參數,因為模型的偏置參數數量相對于權重參數數量來說要少的多,而且每個權重參數會指定兩個變量如何相互作用,而偏置只是控制一個單一的變量,所以我們不對偏置做正則化也不會導致太大的方差。而且,如果對偏置進行正則化可能會導致明顯的欠擬合。

上式中的參數θ 包含了權重和偏置,而我們只需要對權重做正則化。所以,L1正則化和L2正則化可以改成如下表達式

詳解機器學習和深度學習常見的正則化

正則化的影響

在正則化的由來中,我們直觀的介紹了為什么需要加入正則化?接下來我們來介紹一下為什么l1 正則化會使得模型的部分參數為0,l2 正則化會使得模型的參數接近0。為了更好的證明,接下來的公式可能會有點多,不過我會盡可能的詳細讓大家更好的理解

1. 直觀理解

為了幫助大家從直觀上理解正則化的效果,接下來我們將通過畫圖來觀察l1正則化和l2正則化的效果

前面我們介紹了正則化其實就是在原代價函數的基礎上多增加了一項參數的懲罰項,目的就是為了不讓網絡的參數過大而導致模型過擬合,所以我們其實可以將正則化后的代價函數理解為在最小化原代價函數的基礎上多增加了一個參數的約束函數,對于約束函數的要求就是它需要小于某個常數C

詳解機器學習和深度學習常見的正則化

l1 正則化

我們將l1 正則化效果等價于求原代價函數的最小值和對權重參數的約束函數,這里為了便于作圖我們只考慮二維情況

詳解機器學習和深度學習常見的正則化

根據上兩個式子,我們可以繪制出線性規劃圖如下

詳解機器學習和深度學習常見的正則化

上圖中的藍色橢圓表示的是原代價函數的等高線,紅色矩形表示的是權重的約束函數,圖中的紅色箭頭表示的是約束函數的法向量方向,其中藍色箭頭表示的是原代價函數在該點的梯度方向(等高線的梯度方向與它的法向量方向一致)

因為約束函數的限制導致ω 只能在紅色矩形的邊上進行移動來尋找最佳的ω?。當ω處于上圖中的位置時,將原代價函數的梯度分解為沿約束函數的切線方向(即矩形的邊)和法線方向,為了使得原代價函數取得最小值此時需要沿著梯度在約束函數的切線方向(左上方)移動。當ω移動到ω′ 時,通過分解原代價函數的梯度可以發現,為了使得取得原代價函數的最小值應該沿著右上方移動,所以最終最優的ω? 應該為矩形的頂點位置。

通過觀察可以發現此時ω? 在坐標軸ω1 方向的取值為0,這也就是為什么l1 正則化會使得權重參數稀疏的原因。

l2 正則化

同樣,我們按照分析l1正則化的思路進行分析

詳解機器學習和深度學習常見的正則化

詳解機器學習和深度學習常見的正則化

上圖中藍色橢圓表示是原代價函數的等高線,紅色圓表示的是權重的約束函數它的半徑是√ C ,其中藍色箭頭表示的是原代價函數在該點的梯度方向,紅色箭頭表示的是約束函數在該點的法向量方向,綠色箭頭表示的是約束函數在該點的切線方向。

還是按照上面的思想我們將梯度按切線方向和法線方向進行分解,為了使得原代價函數取得最小值,我們需要將ω 按切線方向進行移動,當移動到ω? 時,梯度方向與切線方向垂直時梯度沿切線方向的分量為0,此時原代價函數取得最小值,所以ω? 為最優點。

通過觀察上圖可以發現,此時ω1的取值接近于0,這也就是為什么l2正則化會使得權重趨于0的原因。

2. 公式推導證明

l2 正則化

l2 正則化也被稱為權重衰減或嶺回歸,在神經網絡中也被經常用到,因為它會使得權重向零點靠近(使得權重的取值趨于0)。為了更好的觀察l2正則化的影響,接下來我們觀察一下在添加罰項之后,權重參數是如何更新的

詳解機器學習和深度學習常見的正則化

使用單步梯度下降更新權重,更新公式如下:

詳解機器學習和深度學習常見的正則化

上式中的,? 指的是學習率,α 指的是權重衰減系數,這兩個參數通常都是小于1的。

通過單步的權重的梯度更新公式可以發現,權重每次在更新之前都需要乘以一個小于1的系數,相當于每次更新權重的時候都對它做了衰減,在經過多次權重更新之后會,權重的系數會接近于0,最終會導致權重也接近0,假設權重的系數為0.9,經過100次權重的迭代更新,最終權重系數會變為0.9100≈2.7?10?5(注:這里沒有考慮梯度的大小,只是簡單表明這種趨勢)。

上面只是一個單步的權重更新過程,接下來我們推導一下在整個訓練過程中,權重的更新過程,為了簡化分析我們假設ω? 為J(ω)取得最小值時的權重向量,根據泰勒公式

詳解機器學習和深度學習常見的正則化

假設J(ω)二階可導,我們對其進行二次近似的泰勒展開則有

詳解機器學習和深度學習常見的正則化

為了讓?J (ω)取得最小值,我們令其導數為0,因為?J(ω?)為常數,所以它的導數為0,我們就直接省略了

詳解機器學習和深度學習常見的正則化

接下來我們研究添加l2 正則化之后的對?J(ω)的影響,我們假設?ω為l2正則化之后?J(ω)的最優解,可得它的導數為

詳解機器學習和深度學習常見的正則化

上式中的 I 表示的是單位矩陣,通過上式不難發現,當正則化的懲罰項系數α 為0時,此時?ω 的最優解就等于ω?,接下來我們討論一下當懲罰項系數不為0的時。因為H 是J 在ω? 的Hessian矩陣,所以H 是一個對稱矩陣,我們可以對其做特征分解,可得 H = QΛQT,其中Λ為對角矩陣,Q 為一組特征向量的標準正交基,代入上式可得

詳解機器學習和深度學習常見的正則化

通過上面的式子可以發現,l2正則化的效果就是沿著H 矩陣特征向量所定義的軸縮放未正則化J(ω)的解ω?。因為 I 是單位矩陣,我們可以將縮放的系數改成這種形式?,其中λi指的是矩陣H的特征向量每個軸值的大小,也就是特征分解之后特征值的大小。

通過修改后的衰減系數不難發現,當特征值 λi>>α 時,此時α的影響可以忽略不計,正則化的縮放系數會趨于1,正則化基本沒有影響。當特征值 λi<<α 時,可以將縮放系數改為,因為 α>>λi 所以 (α/λi)>>1,所以縮放系數 (λ/iα)<<1,縮放系數趨于0使得權重也會趨于0。

l1正則化

上面我們推導了添加了l2 正則化之后對權重的影響,通過最后推導得到式子可以解釋為什么l2正則化會讓權重趨于0。接下來,我們以類似的方式來推導l1正則化對于權重的影響

詳解機器學習和深度學習常見的正則化

上式中的sign函數為符號函數,函數圖像如下

當函數輸入值x<0 時輸出值恒等于 -1,輸入值為0時輸出值也等于0,輸入值 x>1 時輸出值恒等于1,sign函數經常被用來表示階躍函數

我們將J(ω;X,y) 使用二階的泰勒展開式來代替,可以將l1正則化后的代價函數轉換為如下形式

詳解機器學習和深度學習常見的正則化

接下來我們看看如何求解ωi,上式中的J(ω?)是常數我們不用考慮,主要考慮求和式中的二次項式和絕對值式來使得整個代價函數取得最小值,為了求得后兩項和的最小值,我們對其求導并令求導后的結果等于0來求ωi

詳解機器學習和深度學習常見的正則化

我們可以將上式中ωi 分為兩種情況,第一種是ωi 和ω?同號即,第二種是ωi 和ω?異號即,我們先討論第一種情況,為了幫助大家理解我們可以看看下圖

詳解機器學習和深度學習常見的正則化

通過上圖可以發現,當ωi 與ω?異號時,無論是哪種情況為了使得損失函數最小,其最優值都是ωi=0此時能保證代價函數的二次項式和絕對值式都取得最小值。

當ωi和ω? 同號時,可以將上式進行化簡可得

詳解機器學習和深度學習常見的正則化

詳解機器學習和深度學習常見的正則化

所以,我們可以合并上式的結果得到最終的ωi的表達式為

詳解機器學習和深度學習常見的正則化

總結

我們通過畫圖和使用公式推導證明了l1正則化和l2正則化產生不同效果的原因,需要注意的是它們的共同點其實都是在衰減對于代價函數的值變化影響相對較小的權重,也就是特征值小的權重,而l1正則化的效果是會使得這部分權重為0,l2正則化會使得它們趨于0。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 正則化
    +關注

    關注

    0

    文章

    17

    瀏覽量

    8141
  • 機器學習
    +關注

    關注

    66

    文章

    8425

    瀏覽量

    132771
  • 深度學習
    +關注

    關注

    73

    文章

    5507

    瀏覽量

    121291
收藏 人收藏

    評論

    相關推薦

    一文詳解機器學習深度學習的區別

    深度學習這幾年特別火,就像5年前的大數據一樣,不過深度學習其主要還是屬于機器學習的范疇領域內,所
    發表于 09-06 12:48 ?2511次閱讀
    一文<b class='flag-5'>詳解</b><b class='flag-5'>機器</b><b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的區別

    改善深層神經網絡--超參數優化、batch正則和程序框架 學習總結

    深度學習工程師-吳恩達》02改善深層神經網絡--超參數優化、batch正則和程序框架 學習總結
    發表于 06-16 14:52

    一種基于機器學習的建筑物分割掩模自動正則和多邊形方法

    摘要我們提出了一種基于機器學習的建筑物分割掩模自動正則和多邊形方法。以圖像為輸入,首先使用通用完全卷積網絡( FCN )預測建筑物分割圖
    發表于 09-01 07:19

    如何區分深度學習機器學習

    深度學習與傳統的機器學習最主要的區別在于隨著數據規模的增加其性能也不斷增長。當數據很少時,深度學習
    發表于 10-27 16:50 ?1964次閱讀
    如何區分<b class='flag-5'>深度</b><b class='flag-5'>學習</b>與<b class='flag-5'>機器</b><b class='flag-5'>學習</b>

    基于快速自編碼的正則極限學習

    正則極限學習機RELM是一種單隱層前饋神經網絡,不同于傳統神經網絡算法,RELM通過隨機設置輸入層權重和偏置值,可以快速求得輸出層權重,并且引入正則
    發表于 11-30 16:58 ?0次下載
    基于快速自編碼的<b class='flag-5'>正則</b><b class='flag-5'>化</b>極限<b class='flag-5'>學習</b>機

    深度學習機器學習深度的不同之處 淺談深度學習的訓練和調參

    近年來,深度學習作為機器學習中比較火的一種方法出現在我們面前,但是和非深度學習
    發表于 05-02 10:30 ?4339次閱讀

    三種典型的神經網絡以及深度學習中的正則方法應用于無人駕駛

    在前幾十年,神經網絡并沒有受到人們的重視,直到深度學習的出現,人們利用深度學習解決了不少實際問題(即一些落地性質的商業應用),神經網絡才成為學界和工業界關注的一個焦點。本文以盡可能直白
    的頭像 發表于 06-03 09:27 ?9651次閱讀

    【連載】深度學習筆記4:深度神經網絡的正則

    今天要寫的是關于機器學習深度學習中的一項關鍵技術:正則。相信在
    的頭像 發表于 08-14 11:58 ?3359次閱讀

    機器學習深度學習有什么區別?

    深度學習算法現在是圖像處理軟件庫的組成部分。在他們的幫助下,可以學習和訓練復雜的功能;但他們的應用也不是萬能的。 “機器學習”和“
    的頭像 發表于 03-12 16:11 ?8216次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>有什么區別?

    基于耦合字典學習與圖像正則的跨模態檢索

    基于耦合字典學習與圖像正則的跨模態檢索
    發表于 06-27 11:23 ?39次下載

    人工智能與機器學習深度學習的區別

    人工智能包含了機器學習深度學習。你可以在圖中看到,機器學習是人工智能的子集,
    的頭像 發表于 03-29 11:04 ?1510次閱讀
    人工智能與<b class='flag-5'>機器</b><b class='flag-5'>學習</b>、<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的區別

    深度學習框架是什么?深度學習框架有哪些?

    高模型的精度和性能。隨著人工智能和機器學習的迅猛發展,深度學習框架已成為了研究和開發人員們必備的工具之一。 目前,市場上存在許多深度
    的頭像 發表于 08-17 16:03 ?2774次閱讀

    機器學習深度學習的區別

    機器學習深度學習的區別 隨著人工智能技術的不斷發展,機器學習
    的頭像 發表于 08-17 16:11 ?4258次閱讀

    機器學習深度學習的區別

      機器學習深度學習是當今最流行的人工智能(AI)技術之一。這兩種技術都有助于在不需要人類干預的情況下讓計算機自主學習和改進預測模型。本文
    發表于 08-28 17:31 ?1571次閱讀

    深度學習模型中的過擬合與正則

    測試數據或新數據上表現不佳的現象。為了解決這個問題,正則(Regularization)技術應運而生,成為深度學習中不可或缺的一部分。本文將從過擬合的原因、表現、
    的頭像 發表于 07-09 15:56 ?1018次閱讀
    主站蜘蛛池模板: 99re这里只有精品国产| 色狠狠婷婷97| 国产精品第1页| 办公室的秘密2中文字幕| 97无码欧美熟妇人妻蜜| 18和谐综合色区| 国产成人在线免费观看| YELLOW高清在线观看2019| 变态露出野外调教| 2021国产精品视频| 亚洲高清无码在线 视频| 全是肉的高h短篇列车| 看了n遍舍不得删的黄文| 国产在线成人一区二区三区| 成人网络电视破解版| 91chinesevideo| 亚洲视频 在线观看| 午夜免费福利小电影| 日韩AV成人无码久久精品老人 | 新影音先锋男人色资源网| 欧洲老妇人bb| 蜜桃麻豆WWW久久囤产精品免费 | 射漂亮黑b丝女| 欧美18videosex性欧美老师| 久久在精品线影院| 久久精品视频在线直播6| 狠狠射首页| 国产青青草原| 国产色精品久久人妻无码看片软件| 处xxxx.88| 第七色 夜夜撸| 大肥女ass樱桃| 敌伦小芳的第一次| 放射源分类办法| 父亲在线日本综艺免费观看全集| 凹凸精品视频分类视频| yellow视频免费观看| 草莓在线观看| xxx在线播放| 成人国内精品久久久久影院| 被免费网站在线视频|