色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡中的參數(shù)和超參數(shù)

倩倩 ? 來源:極客Array ? 2020-04-17 14:40 ? 次閱讀

參數(shù)VS超參數(shù)(Parameters vs Hyperparameters)

想要你的深度神經(jīng)網(wǎng)絡起很好的效果,你還需要規(guī)劃好你的參數(shù)以及超參數(shù)。

什么是超參數(shù)?

比如算法中的learning rate a(學習率)、iterations(梯度下降法循環(huán)的數(shù)量)、L(隱藏層數(shù)目)、n^([l])(隱藏層單元數(shù)目)、choice of activation function(激活函數(shù)的選擇)都需要你來設置,這些數(shù)字實際上控制了最后的參數(shù)W和b的值,所以它們被稱作超參數(shù)。

實際上深度學習有很多不同的超參數(shù),之后我們也會介紹一些其他的超參數(shù),如momentum、mini batch size、regularization parameters等等。

如何尋找超參數(shù)的最優(yōu)值?

走Idea—Code—Experiment—Idea這個循環(huán),嘗試各種不同的參數(shù),實現(xiàn)模型并觀察是否成功,然后再迭代。

今天的深度學習應用領域,還是很經(jīng)驗性的過程,通常你有個想法,比如你可能大致知道一個最好的學習率值,可能說a=0.01最好,我會想先試試看,然后你可以實際試一下,訓練一下看看效果如何。然后基于嘗試的結果你會發(fā)現(xiàn),你覺得學習率設定再提高到0.05會比較好。如果你不確定什么值是最好的,你大可以先試試一個學習率a,再看看損失函數(shù)J的值有沒有下降。

然后你可以試一試大一些的值,然后發(fā)現(xiàn)損失函數(shù)的值增加并發(fā)散了。然后可能試試其他數(shù),看結果是否下降的很快或者收斂到在更高的位置。你可能嘗試不同的a并觀察損失函數(shù)J這么變了,試試一組值,然后可能損失函數(shù)變成這樣,這個a值會加快學習過程,并且收斂在更低的損失函數(shù)值上(箭頭標識),我就用這個a值了。

在前面,還有很多不同的超參數(shù)。然而,當你開始開發(fā)新應用時,預先很難確切知道,究竟超參數(shù)的最優(yōu)值應該是什么。所以通常,你必須嘗試很多不同的值,并走這個循環(huán),試試各種參數(shù)。試試看5個隱藏層,這個數(shù)目的隱藏單元,實現(xiàn)模型并觀察是否成功,然后再迭代。

另一個近來深度學習的影響是它用于解決很多問題,從計算機視覺語音識別,到自然語言處理,到很多結構化的數(shù)據(jù)應用,比如網(wǎng)絡廣告或是網(wǎng)頁搜索或產(chǎn)品推薦等等。

我所看到過的就有很多其中一個領域的研究員,這些領域中的一個,嘗試了不同的設置,有時候這種設置超參數(shù)的直覺可以推廣,但有時又不會。所以我經(jīng)常建議人們,特別是剛開始應用于新問題的人們,去試一定范圍的值看看結果如何。

然后在后面的筆記中,我們會用更系統(tǒng)的方法,用系統(tǒng)性的嘗試各種超參數(shù)取值。

然后其次,甚至是你已經(jīng)用了很久的模型,可能你在做網(wǎng)絡廣告應用,在你開發(fā)途中,很有可能學習率的最優(yōu)數(shù)值或是其他超參數(shù)的最優(yōu)值是會變的,所以即使你每天都在用當前最優(yōu)的參數(shù)調(diào)試你的系統(tǒng),你還是會發(fā)現(xiàn),最優(yōu)值過一年就會變化,因為電腦的基礎設施,CPU或是GPU可能會變化很大。

所以有一條經(jīng)驗規(guī)律可能每幾個月就會變。如果你所解決的問題需要很多年時間,只要經(jīng)常試試不同的超參數(shù),勤于檢驗結果,看看有沒有更好的超參數(shù)數(shù)值,相信你慢慢會得到設定超參數(shù)的直覺,知道你的問題最好用什么數(shù)值。

這可能的確是深度學習比較讓人不滿的一部分,也就是你必須嘗試很多次不同可能性。

但參數(shù)設定這個領域,深度學習研究還在進步中,所以可能過段時間就會有更好的方法決定超參數(shù)的值,也很有可能由于CPU、GPU、網(wǎng)絡和數(shù)據(jù)都在變化,這樣的指南可能只會在一段時間內(nèi)起作用,只要你不斷嘗試,并且嘗試保留交叉檢驗或類似的檢驗方法,然后挑一個對你的問題效果比較好的數(shù)值。

近來受深度學習影響,很多領域發(fā)生了變化,從計算機視覺到語音識別到自然語言處理到很多結構化的數(shù)據(jù)應用,比如網(wǎng)絡廣告、網(wǎng)頁搜索、產(chǎn)品推薦等等;

有些同一領域設置超參數(shù)的直覺可以推廣,但有時又不可以,特別是那些剛開始研究新問題的人們應該去嘗試一定范圍內(nèi)的結果如何,甚至那些用了很久的模型得學習率或是其他超參數(shù)的最優(yōu)值也有可能會改變。

有一條經(jīng)驗規(guī)律:經(jīng)常試試不同的超參數(shù),勤于檢查結果,看看有沒有更好的超參數(shù)取值,你將會得到設定超參數(shù)的直覺。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關推薦

    時間緊急,所以菜鳥特此來詢問-----神經(jīng)網(wǎng)絡參數(shù)畫法

    小弟想問下 那個神經(jīng)網(wǎng)絡參數(shù)和改進遺傳算法的圖標是從程序面板哪里畫出來的?具體路徑哪里謝謝了
    發(fā)表于 03-16 14:55

    機器學習神經(jīng)網(wǎng)絡參數(shù)的代價函數(shù)

    吳恩達機器學習筆記之神經(jīng)網(wǎng)絡參數(shù)的反向傳播算法
    發(fā)表于 05-22 15:11

    【案例分享】ART神經(jīng)網(wǎng)絡與SOM神經(jīng)網(wǎng)絡

    ,同理,閾值越大,則容納的模式類也就越多----------以上純屬個人理解,如果有錯誤歡迎指正。ART比較好地緩解了競爭型學習的“可塑性-穩(wěn)定性窘境”,其中可塑性指神經(jīng)網(wǎng)絡要能夠?qū)W習新知識,穩(wěn)定性
    發(fā)表于 07-21 04:30

    神經(jīng)網(wǎng)絡結構搜索有什么優(yōu)勢?

    近年來,深度學習的繁榮,尤其是神經(jīng)網(wǎng)絡的發(fā)展,顛覆了傳統(tǒng)機器學習特征工程的時代,將人工智能的浪潮推到了歷史最高點。然而,盡管各種神經(jīng)網(wǎng)絡模型層出不窮,但往往模型性能越高,對參數(shù)的要求
    發(fā)表于 09-11 11:52

    改善深層神經(jīng)網(wǎng)絡--參數(shù)優(yōu)化、batch正則化和程序框架 學習總結

    《深度學習工程師-吳恩達》02改善深層神經(jīng)網(wǎng)絡--參數(shù)優(yōu)化、batch正則化和程序框架 學習總結
    發(fā)表于 06-16 14:52

    如何移植一個CNN神經(jīng)網(wǎng)絡到FPGA

    )第二步:使用Lattice sensAI 軟件編譯已訓練好的神經(jīng)網(wǎng)絡,定點化網(wǎng)絡參數(shù)。該軟件會根據(jù)神經(jīng)網(wǎng)絡結構和預設的FPGA資源進行分析并給出性能評估報告,此外用戶還可以在軟件
    發(fā)表于 11-26 07:46

    卷積神經(jīng)網(wǎng)絡(CNN)是如何定義的?

    什么是卷積神經(jīng)網(wǎng)絡?ImageNet-2010網(wǎng)絡結構是如何構成的?有哪些基本參數(shù)
    發(fā)表于 06-17 11:48

    如何構建神經(jīng)網(wǎng)絡

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預測的計算系統(tǒng)。如何構建神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權重的層,以提高模型的預測
    發(fā)表于 07-12 08:02

    可分離卷積神經(jīng)網(wǎng)絡在 Cortex-M 處理器上實現(xiàn)關鍵詞識別

    /激活要調(diào)節(jié)模型,使之不超出微控制器的內(nèi)存和計算限制范圍,必須執(zhí)行參數(shù)搜索。下表顯示了神經(jīng)網(wǎng)絡架構及必須優(yōu)化的相應參數(shù)
    發(fā)表于 07-26 09:46

    基于BP神經(jīng)網(wǎng)絡的PID控制

    神經(jīng)網(wǎng)絡可以建立參數(shù)Kp,Ki,Kd自整定的PID控制器。基于BP神經(jīng)網(wǎng)絡的PID控制系統(tǒng)結構框圖如下圖所示:控制器由兩部分組成:經(jīng)典增量式PID控制器;BP神經(jīng)網(wǎng)絡...
    發(fā)表于 09-07 07:43

    BP神經(jīng)網(wǎng)絡在水質(zhì)參數(shù)預測的應用_張昕

    BP神經(jīng)網(wǎng)絡在水質(zhì)參數(shù)預測的應用_張昕
    發(fā)表于 03-19 11:26 ?1次下載

    卷積神經(jīng)網(wǎng)絡的振動信號模態(tài)參數(shù)識別

    神經(jīng)網(wǎng)絡改成處理一維信號的卷積神經(jīng)網(wǎng)絡,其中輸入層改成待提取模態(tài)參數(shù)的振動信號集合,中間層改成若干一維卷積層、抽樣層,輸出層得到的為信號對應的Ⅳ階模態(tài)參數(shù)集合;然后,在誤差評估
    發(fā)表于 12-05 14:39 ?5次下載
    卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的振動信號模態(tài)<b class='flag-5'>參數(shù)</b>識別

    深度神經(jīng)網(wǎng)絡不同參數(shù)調(diào)整規(guī)則總結

    在深度神經(jīng)網(wǎng)絡參數(shù)的調(diào)整是一項必備技能,通過觀察在訓練過程的監(jiān)測指標如損失loss和準確率來判斷當前模型處于什么樣的訓練狀態(tài),及時調(diào)
    的頭像 發(fā)表于 08-29 15:53 ?4913次閱讀

    自構造RBF神經(jīng)網(wǎng)絡及其參數(shù)優(yōu)化

    自構造RBF神經(jīng)網(wǎng)絡及其參數(shù)優(yōu)化說明。
    發(fā)表于 05-31 15:25 ?9次下載

    教大家怎么選擇神經(jīng)網(wǎng)絡參數(shù)

    1. 神經(jīng)網(wǎng)絡參數(shù)分類 神經(jīng)網(wǎng)路參數(shù)主要包
    的頭像 發(fā)表于 06-19 14:49 ?3650次閱讀
    教大家怎么選擇<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的<b class='flag-5'>超</b><b class='flag-5'>參數(shù)</b>
    主站蜘蛛池模板: 天美麻豆成人AV精品视频| caoporm国产精品视频免费| 亚洲日韩天堂在线中文字幕| 99久久久无码国产精品AAA| 果冻传媒视频在线观看完整版免费| 欧美高清一区二区三| 一色屋精品亚洲香蕉网站| 国产精品免费一区二区三区四区 | 日韩久久影院| a级男女性高爱潮高清试看| 久久人妻少妇嫩草AV蜜桃35I| 特黄大片aaaaa毛片| 黄色软件色多多| 亚洲精品第一页中文字幕| 国产精品-区区久久久狼| 真实处破女全过程完免费观看 | 被公疯狂玩弄的漂亮人妻| 嫩B人妻精品一区二区三区| 91精品免费久久久久久久久| 久久精品中文字幕免费| 伊人网伊人网| 久久黄色大片| 伊人狼人久久精品热9| 日本69xxxx| 吃奶摸下的羞羞漫画| 日本超A大片在线观看| 国语自产拍大学生在线观看| 99日精品欧美国产| 亚洲精品自在在线观看| 久久99AV无色码人妻蜜| 曰本真人00XX动太图| 日韩精品亚洲专区在线影院| 久久偷拍人| 国产在线精品亚洲第1页| 一本道中文无码亚洲| 玖玖爱在线播放| 51vv视频社区| 欧美video巨大粗暴18| 国产一区在线观看免费| 被窝伦理午夜电影网| 香蕉久久av一区二区三区|