色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Yolov5理論學習筆記

新機器視覺 ? 來源:馬少爺 ? 2023-09-12 17:08 ? 次閱讀

算法創新分為三種方式

第一種:面目一新的創新,比如Yolov1、Faster-RCNN、Centernet等,開創出新的算法領域,不過這種也是最難的。

第二種:守正出奇的創新,比如將圖像金字塔改進為特征金字塔。

第三種:各種先進算法集成的創新,比如不同領域發表的最新論文的tricks,集成到自己的算法中,卻發現有出乎意料的改進。

對象檢測網絡的通用架構:

1cee00a0-514a-11ee-a25d-92fbcf53809c.png

1)Backbone -形成圖像特征。

2)Neck:對圖像特征進行混合和組合,生成特征金字塔

3)Head:對圖像特征進行預測,應用錨定框,生成帶有類概率、對象得分和邊界框的最終輸出向量。

【Yolov5網絡結構圖】

可視化結構圖:

1d2c3cda-514a-11ee-a25d-92fbcf53809c.png

不同網絡的寬度:

V5x: 367MB,V5l: 192MB,V5m: 84MB,V5s: 27MB,YOLOV4: 245 MB

1d5bd71a-514a-11ee-a25d-92fbcf53809c.png

四種Yolov5結構在不同階段的卷積核的數量都是不一樣的,因此直接影響卷積后特征圖的第三維度

Yolov5s第一個Focus結構中:最后卷積操作時,卷積核的數量是32個,特征圖的大小變成304×304×32。

而Yolov5m:卷積操作使用了48個卷積核,特征圖變成304×304×48。

…后面卷積下采樣操作也是同樣的原理

不同網絡的深度:

1d7897e2-514a-11ee-a25d-92fbcf53809c.png

四種網絡結構中每個CSP結構的深度都是不同的

CSP1結構主要應用于Backbone中:

Yolov5s的CSP1:使用了1個殘差組件,CSP1_1。

Yolov5m:使用了2個殘差組件,CSP1_2。

Yolov5l,使用了3個殘差組件,

Yolov5x,使用了4個殘差組件。

主要的不同點:

(1)輸入端:Mosaic數據增強、自適應錨框計算、自適應圖片縮放

(2)Backbone:Focus結構,CSP結構

(3)Neck:FPN+PAN結構

(4)Prediction:GIOU_Loss

【輸入端】

①數據增強:

Mosaic數據增強

②自適應錨定框Auto Learning Bounding Box Anchors

網絡在初始錨框的基礎上 基于訓練數據 輸出預測框,因此初始錨框也是比較重要的一部分。見配置文件*.yaml, yolov5預設了COCO數據集640×640圖像大小的錨定框的尺寸:

1da77846-514a-11ee-a25d-92fbcf53809c.png

每次訓練時,自適應的計算不同訓練集中的最佳錨框值。如果覺得計算的錨框效果不是很好,也可以在代碼中將自動計算錨框功能關閉。具體操作為train.py中下面一行代碼,設置成False

1dba16c2-514a-11ee-a25d-92fbcf53809c.png

③自適應圖片縮放

在常用的目標檢測算法中,一般將原始圖片統一縮放到一個標準尺寸,再送入檢測網絡中。Yolo算法中常用416416,608608等尺寸。因為填充的比較多,會存在信息冗余,所以yolov5對原始圖像自適應的添加最少的黑邊。

【Backbone】

①Focus結構

1dce048e-514a-11ee-a25d-92fbcf53809c.png

以Yolov5s的結構為例,原始608x608x3的圖像輸入Focus結構,采用切片操作,先變成304x304x12的特征圖,再經過一次32個卷積核的卷積操作,最終變成304x304x32的特征圖。

②CSP結構

作者認為推理計算過高的問題是由于網絡優化中的梯度信息重復致,CSPNet(Cross Stage Paritial Network, 跨階段局部網絡),主要從網絡結構設計的角度解決推理中計算量很大的問題。

Yolov5中設計了兩種CSP結構,以Yolov5s網絡為例,CSP1_X結構應用于Backbone主干網絡,另一種CSP2_X結構則應用于Neck中。

1df8516c-514a-11ee-a25d-92fbcf53809c.png

【Neck】

FPN+PAN,網絡特征融合的能力更強

1e219fae-514a-11ee-a25d-92fbcf53809c.png

PAN(路徑聚合網絡)借鑒了圖像分割領域PANet的創新點

該作者認為在對象檢測中,特征融合層的性能非常重要,根據谷歌大腦的研究,[BiFPN]才是特征融合層的最佳選擇。誰能整合這項技術,很有可能取得性能大幅超越。

【輸出端】

①Activation Function

在 YOLO V5中,中間/隱藏層使用了 Leaky ReLU 激活函數,最后的檢測層使用了 Sigmoid 形激活函數

②nms非極大值抑制

在同樣的參數情況下,將nms中IOU修改成DIOU_nms。對于一些遮擋重疊的目標,會有一些改進。

③Optimization Function

YOLO V5的作者為我們提供了兩個優化函數Adam和SGD,并都預設了與之匹配的訓練超參數。默認為SGD。

④Cost Function

loss = objectness score+class probability score+ bounding box regression score

YOLO V5使用 GIOU Loss作為bounding box的損失。

YOLO V5使用二進制交叉熵和 Logits 損失函數計算類概率和目標得分的損失。同時我們也可以使用fl _ gamma參數來激活Focal loss計算損失函數。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4620

    瀏覽量

    93047
  • 圖像分割
    +關注

    關注

    4

    文章

    182

    瀏覽量

    18019
  • 函數
    +關注

    關注

    3

    文章

    4338

    瀏覽量

    62739

原文標題:Yolov5理論學習筆記

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    YOLOv5】LabVIEW+YOLOv5快速實現實時物體識別(Object Detection)含源碼

    前面我們給大家介紹了基于LabVIEW+YOLOv3/YOLOv4的物體識別(對象檢測),今天接著上次的內容再來看看YOLOv5。本次主要是和大家分享使用LabVIEW快速實現yolov5
    的頭像 發表于 03-13 16:01 ?2188次閱讀

    Yolov5算法解讀

    yolov5于2020年由glenn-jocher首次提出,直至今日yolov5仍然在不斷進行升級迭代。 Yolov5YOLOv5s、YOLOv5
    的頭像 發表于 05-17 16:38 ?9282次閱讀
    <b class='flag-5'>Yolov5</b>算法解讀

    YOLOv5】LabVIEW+TensorRT的yolov5部署實戰(含源碼)

    今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實現yolov5的物體識別
    的頭像 發表于 08-21 22:20 ?1339次閱讀
    【<b class='flag-5'>YOLOv5</b>】LabVIEW+TensorRT的<b class='flag-5'>yolov5</b>部署實戰(含源碼)

    龍哥手把手教你學視覺-深度學習YOLOV5

    可以實現理想的檢測效果。在本套視頻,有別于常見的深度學習教程以理論為主進行全面講解,以沒有任何深度學習理論基礎的學員學習角度,以實際應用為目標,講解如何設計一個完整的
    發表于 09-03 09:39

    怎樣使用PyTorch Hub去加載YOLOv5模型

    在Python>=3.7.0環境中安裝requirements.txt,包括PyTorch>=1.7。模型和數據集從最新的 YOLOv5版本自動下載。簡單示例此示例從
    發表于 07-22 16:02

    如何YOLOv5測試代碼?

    使用文檔“使用 YOLOv5 進行對象檢測”我試圖從文檔第 10 頁訪問以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區) ...但是這樣做時會被拒絕訪問。該文檔沒有說明需要特殊許可才能下載 test.zip 文件。NXP 的人可以提供有關如
    發表于 05-18 06:08

    yolov5模型onnx轉bmodel無法識別出結果如何解決?

    問題描述: 1. yolov5模型pt轉bmodel可以識別出結果。(轉化成功,結果正確) 2. yolov5模型pt轉onnx轉bmodel可以無法識別出結果。(轉化成功,結果沒有) 配置: 1.
    發表于 09-15 07:30

    基于YOLOv5的目標檢測文檔進行的時候出錯如何解決?

    你好: 按Milk-V Duo開發板實戰——基于YOLOv5的目標檢測 安裝好yolov5環境,在執行main.py的時候會出錯,能否幫忙看下 main.py: import torch
    發表于 09-18 07:47

    現代控制理論學習心得

    現代控制理論學習心得
    發表于 12-20 22:18 ?0次下載

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉換YOLOv5預訓練模型的詳細步驟,請參考:《基于OpenVINO?2022.2和蝰蛇峽谷優化并部署YOLOv5模型》,本文所使用的OpenVINO是2022.3 LTS版。
    的頭像 發表于 02-15 16:53 ?4726次閱讀

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹在旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運行yolov5并使用pytoch的pt模型文件轉ONNX。
    的頭像 發表于 04-26 14:20 ?924次閱讀
    使用旭日X3派的BPU部署<b class='flag-5'>Yolov5</b>

    淺析基于改進YOLOv5的輸電線路走廊滑坡災害識別

    本文以YOLOv5網絡模型為基礎,提出一種改進YOLOv5YOLOv5-BC)深度學習滑坡災害識別方法,將原有的PANet層替換為BiFPN結構,提高網絡多層特征融合能力
    的頭像 發表于 05-17 17:50 ?1230次閱讀
    淺析基于改進<b class='flag-5'>YOLOv5</b>的輸電線路走廊滑坡災害識別

    yolov5和YOLOX正負樣本分配策略

    整體上在正負樣本分配中,yolov7的策略算是yolov5和YOLOX的結合。因此本文先從yolov5和YOLOX正負樣本分配策略分析入手,后引入到YOLOv7的解析中。
    發表于 08-14 11:45 ?2310次閱讀
    <b class='flag-5'>yolov5</b>和YOLOX正負樣本分配策略

    YOLOv5網絡結構訓練策略詳解

    前面已經講過了Yolov5模型目標檢測和分類模型訓練流程,這一篇講解一下yolov5模型結構,數據增強,以及訓練策略。
    的頭像 發表于 09-11 11:15 ?2325次閱讀
    <b class='flag-5'>YOLOv5</b>網絡結構訓練策略詳解

    YOLOv5的原理、結構、特點和應用

    YOLOv5(You Only Look Once version 5)是一種基于深度學習的實時目標檢測算法,它屬于卷積神經網絡(CNN)的范疇。下面我將詳細介紹YOLOv5的原理、結
    的頭像 發表于 07-03 09:23 ?6151次閱讀
    主站蜘蛛池模板: 国产网红主播精品福利大秀专区| 亚洲91av| 高清国产在线播放成人| 亚洲日韩欧美国产专区| 日本xxx片免费高清在线| 久久人妻少妇嫩草AV蜜桃35I| 国产不卡无码高清视频| 91涩涩视频| 伊人久久综合| 亚洲VA欧美VA天堂V国产综合| 人妻少妇偷人精品无码洋洋AV| 看80后操| 久久re热线视频精品99| 国产伦精品一区二区免费| 成人网站国产在线视频内射视频| 中文字幕免费在线视频| 亚洲美女视频高清在线看| 玩高中女同桌肉色短丝袜脚文| 青草精品国产福利在线视频| 麻豆啊传媒app黄版破解免费| 黑兽在线观看高清在线播放樱花| 国产精片久久久久久婷婷| 边摸边吃奶边做下面视频| 777米奇色狠狠俺去啦| 影音先锋2017av天堂| 亚洲视频无码高清在线| 亚洲大片在线观看| 性虎成人网| 午夜黄视频| 无人区日本电影在线观看高清 | 国精品产露脸偷拍视频| 国产成人免费观看| 广东95后小情侣酒店自拍流出| xx69中国| 边摸边吃奶边做带声音| Y8848高清私人影院软件优势| 99热久久精品国产一区二区| 91久久偷偷做嫩草影院免费看| 青草伊人网 | 偷偷鲁手机在线播放AV| 色内射无码AV|