色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

卷積網絡最新研究:通過AutoML和模型規模化提升精度與效率

nlfO_thejiangme ? 來源:YXQ ? 2019-06-04 17:26 ? 次閱讀

卷積網絡的部署通常在固定資源的情況下進行,如果想要提高精度就需要更多的資源來部署更大、更深的網絡。實際應用中,人們可以把ResNet-18拓展到ResNet-200增加層數提高精度,谷歌近期提出的GPipe也利用提升規模的方法在ImageNet上實現了84.3%的top-1精度

Gpipe模型與ResNet不同規模的模型

對于擴大模型的規模,通常的做法是增加卷積網絡的深度或寬度,或者利用更大的輸入分辨率來訓練和測評。雖然能夠大幅度提升精度,但需要復雜的手工調校來進行優化。

那么我們能不能找到一種更為通用的方法來使擴大CNNs的規模以得到更好的精度和速度呢?谷歌在今年的ICML會議上給出了一種可行的解決方案。研究中提出了一種名為EfficientNet,通過簡單高效地混合系數來結構化地擴大CNNs的規模。與先前提高網絡維度參數不同,這種新的方法不會去調整寬度、深度和分辨率,而是利用固定的規模系數集均勻化地對每個維度進行擴增。

基于這種規模化方法和自動機器學習,研究人員開發出了新的網絡家族EfficientNets,不僅在精度上超過了前輩,更在效率上有了10倍的提升。

混合模型規模化—擴大CNNs規模的好方法

研究人員首先系統地分析了不同維度上的規模化對于模型的影響。

在深度、寬度和分辨率等維度上記性擴充后的模型效果提升,但單個維度在達到80%后很快趨近于飽和。

分別對于不同的維度進行規模化后,研究人員發現對于網絡寬度、深度和圖像分辨率等所有維度的平衡下對于模型的表現提升最好。所以混合而不是單一的改變模型的規模是提升性能的較好選擇。混合規模化方法的第一步是進行柵格搜索,在固定資源限制的條件下尋找不同規模維度下的關系。這將為不同的維度尋找適宜的規模化系數來實現最好的效果。隨后利用這些搜索到的系數來對基準網絡進行擴充,在給定的計算資源和模型大小下實現目標模型。

上圖顯示了不同規模化的方法,與先前的方法不同,新提出的混合規模化方法在所有的維度上進行了規模化提升。

實驗表明這種混合規模化方法比mobileNet(+1.4%)和ResNet(+0.7%)都有提升。

EfficientNet架構

前述的模型在規模化的時候依然高度依賴于基礎網絡模型。所以為了更好的提高模型的表現,研究人員提出了新型基準網絡模型。利用自動機器學習框架來進行神經架構搜索,同時優化了精度和效率(FLOPS)。

最終的架構類似MobileNetV2和MnasNet,使用了移動反轉瓶頸卷積結構(mobile inverted bottleneck),但在規模上有些許擴大。基于這一基礎網絡,研究人員利用不同的擴充方式得到了規模化的網絡家族EfficientNets。

簡單的基準模型更容易擴展和規模化

EfficientNet的表現

為了測試模型的性能,研究人員在ImageNet上對現有的先進模型與EfficientNet進行了比較,結果表明EfficientNet在精度和效率上都超過了現有的模型,甚至在相同精度下將模型參數和操作減小了一個數量級。

在下圖中可以看到,在左上角的高精度區域,B7型EfficientNet在ImageNet上達到了84.4%的top-1精度和97.1%的top-5精度,但與先前的GPipe相比在CPU上的運行使用的參數減小了8.4倍同時速度提升了6.1倍。與廣泛使用的ResNet-50相比,相同參數的情況下提升了6.3%的top-1精度。

結果顯示了新的模型家族在精度與效率上的優勢。

此外,為了驗證模型的其他數據集上的表現,研究人員還將模型遷移到了CIFAR-100和Flowers上,EfficientNet在參數減少一個數量級(21x)的情況下在8個測試數據集中的5個上取得了最好的精度,證明了這一方法具有穩定的泛化能力。這種新的模型有望成為計算機視覺任務的新基準,研究人員開源了所有的代碼,同時可以看在這里找到基于TPU的加速實現

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6211

    瀏覽量

    106522
  • 卷積網絡
    +關注

    關注

    0

    文章

    43

    瀏覽量

    2305

原文標題:谷歌最新研究EfficientNet,通過AutoML和模型規模化提升精度與效率

文章出處:【微信號:thejiangmen,微信公眾號:將門創投】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    的是百度的Picodet模型,它是一種基于深度卷積網絡(DNN)的輕量級目標檢測模型,具有非常高的檢測精度,可以在低算力設備進行實時的端到端
    發表于 12-19 14:33

    卷積神經網絡共包括哪些層級

    卷積神經網絡(Convolutional Neural Network, CNN)是一種深度學習模型,廣泛應用于圖像識別、語音識別、自然語言處理等領域。它以卷積層為核心,
    的頭像 發表于 07-11 15:58 ?1662次閱讀

    經典卷積網絡模型介紹

    經典卷積網絡模型在深度學習領域,尤其是在計算機視覺任務中,扮演著舉足輕重的角色。這些模型通過不斷演進和創新,推動了圖像處理、目標檢測、圖像生
    的頭像 發表于 07-11 11:45 ?762次閱讀

    卷積神經網絡中池層的作用

    在深度學習領域,卷積神經網絡(Convolutional Neural Network, CNN)以其卓越的圖像處理和計算機視覺能力而廣受歡迎。CNN由多個層組成,其中包括卷積層、池
    的頭像 發表于 07-03 15:58 ?2224次閱讀

    卷積神經網絡實現示例

    卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,主要用于處理具有網格結構的數據,如圖像。CNN通過
    的頭像 發表于 07-03 10:51 ?576次閱讀

    卷積神經網絡分類方法有哪些

    ,包括基本原理、常見架構、優化策略、應用場景等。 1. 卷積神經網絡的基本原理 卷積神經網絡是一種前饋神經網絡,其核心思想是
    的頭像 發表于 07-03 09:40 ?635次閱讀

    cnn卷積神經網絡分類有哪些

    卷積神經網絡概述 卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,由多層
    的頭像 發表于 07-03 09:28 ?876次閱讀

    卷積神經網絡可以通過輸出反推到輸入嗎

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。CNN通過
    的頭像 發表于 07-03 09:17 ?888次閱讀

    卷積神經網絡訓練的是什么

    、訓練過程以及應用場景。 1. 卷積神經網絡的基本概念 1.1 卷積神經網絡的定義 卷積神經網絡
    的頭像 發表于 07-03 09:15 ?623次閱讀

    卷積神經網絡的原理與實現

    核心思想是通過卷積操作提取輸入數據的特征。與傳統的神經網絡不同,卷積神經網絡具有參數共享和局部連接的特點,這使得其在處理圖像等高維數據時具有
    的頭像 發表于 07-02 16:47 ?846次閱讀

    卷積神經網絡cnn模型有哪些

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。 CNN的基本概念 1.1 卷積
    的頭像 發表于 07-02 15:24 ?905次閱讀

    卷積神經網絡的基本結構及其功能

    。 引言 深度學習是機器學習的一個分支,它通過模擬人腦神經網絡的結構和功能,實現對數據的自動學習和特征提取。卷積神經網絡是深度學習中的一種重要模型
    的頭像 發表于 07-02 14:45 ?2703次閱讀

    卷積神經網絡的原理是什么

    基本概念、結構、訓練過程以及應用場景。 卷積神經網絡的基本概念 1.1 神經網絡 神經網絡是一種受人腦神經元結構啟發的數學模型,由大量的節點
    的頭像 發表于 07-02 14:44 ?908次閱讀

    【大規模語言模型:從理論到實踐】- 閱讀體驗

    注意力機制提高了模型在處理長序列數據時的性能,但在某些任務上,傳統的循環神經網絡(RNN)或卷積神經網絡(CNN)可能仍然具有優勢。此外,注意力機制本身也可能存在某些性能瓶頸,需要進一
    發表于 06-07 14:44

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    Transformer架構,利用自注意力機制對文本進行編碼,通過預訓練、有監督微調和強化學習等階段,不斷提升性能,展現出強大的語言理解和生成能力。 大語言模型的涌現能力,是指隨著模型
    發表于 05-04 23:55
    主站蜘蛛池模板: 18禁裸乳无遮挡免费网站 | 调教美丽的白丝袜麻麻视频 | 中文字幕亚洲无线码一区 | 国语自产拍大学生在线观看 | 国产精品日本不卡一区二区 | 琪琪色原网20岁以下热热色原网站 | 特级毛片内射WWW无码 | 无限资源在线观看完整版免费下载 | 国产午夜亚洲精品不卡电影 | 精品国产乱码久久久久乱码 | 肉小说高h | 果冻传媒独家原创在线观看 | 99国产精品久久人妻无码 | 啦啦啦 中文 日本 韩国 免费 | 超碰在线视频人人AV | 视频成人永久免费视频 | 97欧美精品大香伊蕉在人线 | 久久久久久九九 | 中文字幕在线播放 | 老师你狠狂 | 4399日本电影完整版在线观看免费 | 97视频久久 | 亚洲中文字幕在线精品 | 国产偷国产偷亚州清高APP | 久久精品国产亚洲AV热无遮挡 | 偷上邻居熟睡少妇 | www亚洲欲色成人久久精品 | 伊人久久综在合线影院 | 一本道本线中文无码 | 久久精品免视看国产 | 国产精品免费一区二区三区视频 | 亚洲欧洲日本天天堂在线观看 | 嗯啊哈啊好棒用力插啊 | 两个女人互添下身高潮自视频 | 国产成人欧美日韩在线电影 | 热re99久久精品国99热 | 边摸边吃奶玩乳尖视频 | 成人免费视频一区 | 双性将军粗壮H灌满怀孕 | 亚洲无碼网站观看 | ZZoo兽2皇 |