色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于YOLOv5s基礎(chǔ)上實現(xiàn)五種視覺注意力模塊的改進(jìn)

OpenCV學(xué)堂 ? 來源:OpenCV學(xué)堂 ? 2023-06-02 14:52 ? 次閱讀

視覺注意力機(jī)制的各種模塊是個好東西,即插即用,可以添加到主流的對象檢測、實例分割等模型的backbone與neck中,實現(xiàn)輕松漲點,本文使用OID數(shù)據(jù)集的2000多張數(shù)據(jù),基于YOLOv5s基礎(chǔ)上實現(xiàn)五種視覺注意力模塊的改進(jìn),然后訓(xùn)練相同的輪次,橫向比較模型的精度。

YOLOv5添加注意模塊魔改

視覺注意力機(jī)制是一個好東西,即插即用,YOLOv5 7.0版本工程代碼簡潔明了,代碼加入視覺注意力模塊支持異常方便,以SE注意力為例,只要三步即可完成: 1. 修改模型結(jié)構(gòu)文件yaml、添加注意力機(jī)制SENet模塊 2. 修改模型結(jié)構(gòu)實現(xiàn)代碼文件common.py,實現(xiàn)SENet模塊代碼添加 3. 修改模型解析代碼文件yolo.py,注冊新添加的SENet模塊解析支持 這樣就完成了YOLOv5+SE注意力模塊的支持,別急,我還修改了ECA、CA、GAM、CBAM,顯示如下:

7797c3b2-fc57-11ed-90ce-dac502259ad0.png

然后統(tǒng)統(tǒng)訓(xùn)練100輪次,跟原來的沒有添加注意力機(jī)制的對比一下,看看效果怎么樣?答案揭曉了,

77a3b8fc-fc57-11ed-90ce-dac502259ad0.png

77af4dfc-fc57-11ed-90ce-dac502259ad0.png

我只是在SPPF之前的一層添加了注意力模塊,只有這個小小的改動!從效果看,基本都可以漲點了…

對比驗證結(jié)果

100 輪次OID數(shù)據(jù)集自定義數(shù)據(jù),YOLOv5s模型與SE、ECA、CA、CBAM、GAM五種注意力改進(jìn)模型,mAP指標(biāo)統(tǒng)計與對比

77bb7582-fc57-11ed-90ce-dac502259ad0.png

YOLOv5注意力機(jī)制模型部署

然后我還基于以前的測試程序上測試一下,導(dǎo)出ONNX格式,然后通過ONNXRUNTIME進(jìn)行推理,以SE注意力+YOLOv5s為例,感覺一切順利。PyQT5 + ONNXRUNTIME, 圖示如下:

77cf9454-fc57-11ed-90ce-dac502259ad0.png
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2717

    瀏覽量

    47555
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7079

    瀏覽量

    89166
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4799

    瀏覽量

    68728

原文標(biāo)題:用注意力機(jī)制魔改YOLOv5漲點

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于H743板子移植YOLOV5s做缺陷檢測可行嗎?

    大概的思路是用yolov5s的模型進(jìn)行剪枝壓縮量化處理,然后通過cube-ai進(jìn)行移植,搭配ov5640的攝像頭,想請教下這個方案可以行的通嗎?
    發(fā)表于 03-20 08:08

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽模型),訓(xùn)練就引用我自己之前寫過的,已經(jīng)訓(xùn)練好的可以跳過該部分,其中有
    發(fā)表于 04-23 15:43

    基于SLH89F5162的左額電壓信號的注意力比拼

    注意力高則LED越亮。項目難點:腦部電壓信號的處理,屏幕顯示的設(shè)計處理能否吸引人,無線協(xié)議的選擇和實現(xiàn),以及亮度可變的LED的實現(xiàn)方案。時間安排:13.10.17-13.11.20 資料收集整理,各
    發(fā)表于 10-17 15:46

    基于labview的注意力分配實驗設(shè)計

    畢設(shè)要求做一個注意力分配實驗設(shè)計。有些結(jié)構(gòu)完全想不明白。具體如何實現(xiàn)如下。一個大概5*5的燈組合,要求隨機(jī)亮。兩個聲音大小不同的音頻,要求隨機(jī)響,有大、小兩個選項。以上兩
    發(fā)表于 05-07 20:33

    YOLOv5s算法在RK3399ProD的部署推理流程是怎樣的

    YOLOv5s算法在RK3399ProD的部署推理流程是怎樣的?基于RK33RK3399Pro怎樣使用NPU進(jìn)行加速推理呢?
    發(fā)表于 02-11 08:15

    怎樣使用PyTorch Hub去加載YOLOv5模型

    PyTorch Hub 加載預(yù)訓(xùn)練的 YOLOv5s 模型,model并傳遞圖像進(jìn)行推理。'yolov5s'是最輕最快的 YOLOv5 型號。有關(guān)所有可用模型的詳細(xì)信息,請參閱自述文件。詳細(xì)示例此示例
    發(fā)表于 07-22 16:02

    如何YOLOv5測試代碼?

    使用文檔“使用 YOLOv5 進(jìn)行對象檢測”我試圖從文檔第 10 頁訪問以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區(qū)) ...但是這樣做時會被拒絕訪問。該文檔沒有說明需要特殊許可才能下載 test.zip 文件。NXP 的人可以提供有關(guān)如
    發(fā)表于 05-18 06:08

    【愛芯派 Pro 開發(fā)板試用體驗】使用yolov5s模型(官方)

    【愛芯派 Pro 開發(fā)板試用體驗】+使用yolov5s模型(官方) 配置好基本環(huán)境 如果沒有連接上網(wǎng)絡(luò)的,可以看博主寫的一篇怎么連接網(wǎng)絡(luò) apt update apt install
    發(fā)表于 11-13 11:04

    DeepMind為視覺問題回答提出了一新的硬注意力機(jī)制

    然而,在基于梯度的學(xué)習(xí)框架(如深度學(xué)習(xí))中存在一個關(guān)鍵的缺點:因為選擇要處理的信息的過程是離散化的,因此也就是不可微分的,所以梯度不能反向傳播到選擇機(jī)制中來支持基于梯度的優(yōu)化。目前研究人員正在努力來解決視覺注意力、文本注意力,乃
    的頭像 發(fā)表于 08-10 08:44 ?6237次閱讀

    通過引入硬注意力機(jī)制來引導(dǎo)學(xué)習(xí)視覺回答任務(wù)的研究

    此外,通過對特征向量的 L2 正則化處理來選擇重要性特征,我們的視覺問答框架進(jìn)一步采用硬注意力機(jī)制進(jìn)行增強(qiáng)。我們將最初的版本成為硬注意力網(wǎng)絡(luò) HAN (Hard Attention Network
    的頭像 發(fā)表于 10-04 09:23 ?5490次閱讀

    基于通道注意力機(jī)制的SSD目標(biāo)檢測算法

    為提升原始SSD算法的小目標(biāo)檢測精度及魯棒性,提出一基于通道注意力機(jī)制的SSD目標(biāo)檢測算法。在原始SSD算法的基礎(chǔ)上對高層特征圖進(jìn)行全局池化操作,結(jié)合通道注意力機(jī)制增強(qiáng)高層特征圖的語
    發(fā)表于 03-25 11:04 ?20次下載

    Tengine 支持 NPU 模型部署-YOLOv5s

    今天我們試著基于 AI 邊緣計推理框架 Tengine 在 Khadas VIM3 的 AI 加速器上部署 YOLOv5s
    發(fā)表于 01-25 18:38 ?3次下載
    Tengine 支持 NPU 模型部署-<b class='flag-5'>YOLOv5s</b>

    詳解即插即用的視覺注意力模塊

    SE注意力模塊的全稱是Squeeze-and-Excitation block、其中Squeeze實現(xiàn)全局信息嵌入、Excitation實現(xiàn)自適應(yīng)權(quán)重矯正,合起來就是SE
    的頭像 發(fā)表于 05-18 10:23 ?2612次閱讀
    詳解<b class='flag-5'>五</b><b class='flag-5'>種</b>即插即用的<b class='flag-5'>視覺</b><b class='flag-5'>注意力</b><b class='flag-5'>模塊</b>

    計算機(jī)視覺中的注意力機(jī)制

    計算機(jī)視覺中的注意力機(jī)制 卷積神經(jīng)網(wǎng)絡(luò)中常用的Attention 參考 注意力機(jī)制簡介與分類 注意力機(jī)制(Attention Mechanism) 是機(jī)器學(xué)習(xí)中的一
    發(fā)表于 05-22 09:46 ?0次下載
    計算機(jī)<b class='flag-5'>視覺</b>中的<b class='flag-5'>注意力</b>機(jī)制

    YOLOv8+OpenCV實現(xiàn)DM碼定位檢測與解析

    YOLOv8是YOLO系列模型的最新王者,各種指標(biāo)全面超越現(xiàn)有對象檢測與實例分割模型,借鑒了YOLOv5YOLOv6、YOLOX等模型的設(shè)計優(yōu)點,全面提升改進(jìn)
    的頭像 發(fā)表于 08-10 11:35 ?1316次閱讀
    <b class='flag-5'>YOLOv</b>8+OpenCV<b class='flag-5'>實現(xiàn)</b>DM碼定位檢測與解析
    主站蜘蛛池模板: 久久久乱码精品亚洲日韩| 国产三级在线观看免费| 果冻传媒色AV国产播放| 春水福利app导航| 亚洲视频在线观看免费| 欧美高清videossexo| 浪潮色诱AV久久久久久久| 成人午夜精品无码区久久漫画日本 | 野花韩国高清完整版在线| 学校捏奶揉下面污文h| 挺进老师的紧窄小肉六电影完整版 | 女教师の诱惑| 欧美ⅹxxxx18性欧美| 麻豆无人区乱码| 免费韩国伦理2017最新| 内射少妇36P亚洲区| 黑吊大战白xxxxxx| YELLOW视频在线观看大全| 9国产露脸精品国产麻豆| 99国产这里只有精品视频| 99RE8国产这里只有精品| black大战chinese周晓琳| 啊灬啊别停灬用力啊老师| 成人国内精品久久久久影院| 电影 qvod| 国产人A片777777久久| 黑人操日本女人| 久久综合色一综合色88中文| 免费看国产精品麻豆| 青青热久精品国产亚洲AV无码| 日日干夜夜爽| 香蕉99久久久久成人麻豆| 色偷偷伊人| 全黄H全肉细节文短篇| 麻豆国产MV视频| 欧美乱码伦视频免费66网| 日本一二三区在线视频| 蜜芽最新域名解析网站| 欧美性喷潮xxxx| 免费国产黄线在线播放| 女人色极品影院|