色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SA-Siam:用于實時目標(biāo)跟蹤的孿生網(wǎng)絡(luò)A Twofold Siamese Network for Real-Time Object Tracking

jf_96884364 ? 來源:代碼的路 ? 作者:代碼的路 ? 2023-01-11 17:54 ? 次閱讀

原文鏈接

論文地址:https://openaccess.thecvf.com/content_cvpr_2018/papers/He_A_Twofold_Siamese_CVPR_2018_paper.pdf

摘要

1.本文核心一:將圖像分類任務(wù)中的 語義特征 (Semantic features)與相似度匹配任務(wù)中的外觀特征(Appearance features)互補(bǔ)結(jié)合,非常適合與目標(biāo)跟蹤任務(wù),因此本文方法可以簡單概括為:SA-Siam=語義分支+外觀分支;

2.Motivation:目標(biāo)跟蹤的特點是,我們想從眾多背景中區(qū)分出變化的目標(biāo)物體,其中難點為:背景和變化。本文的思想是用一個語義分支過濾掉背景,同時用一個外觀特征分支來泛化目標(biāo)的變化,如果一個物體被語義分支判定為不是背景,并且被外觀特征分支判斷為該物體由目標(biāo)物體變化而來,那么我們認(rèn)為這個物體即需要被跟蹤的物體;

3.本文的目的是提升SiamFC在目標(biāo)跟蹤任務(wù)中的判別力。在深度CNN訓(xùn)練目標(biāo)分類的任務(wù)中,網(wǎng)絡(luò)中深層的特征具有強(qiáng)的語義信息并且對目標(biāo)的外觀變化擁有不變性。這些語義特征是可以用于互補(bǔ)SiamFC在目標(biāo)跟蹤任務(wù)中使用的外觀特征。基于此發(fā)現(xiàn),我們提出了SA-Siam,這是一個雙重孿生網(wǎng)絡(luò),由語義分支和外觀分支組成。每一個分支都使用孿生網(wǎng)絡(luò)結(jié)構(gòu)計算候選圖片和目標(biāo)圖片的相似度。為了保持兩個分支的獨立性,兩個孿生網(wǎng)絡(luò)在訓(xùn)練過程中沒有任何關(guān)系,僅僅在測試過程中才會結(jié)合。

4.本文核心二:對于新引入的語義分支,本文進(jìn)一步提出了通道注意力機(jī)制。在使用網(wǎng)絡(luò)提取目標(biāo)物體的特征時,不同的目標(biāo)激活不同的特征通道,我們應(yīng)該對被激活的通道賦予高的權(quán)值,本文通過目標(biāo)物體在網(wǎng)絡(luò)特定層中的響應(yīng)計算這些不同層的權(quán)值。實驗證實,通過此方法,可以進(jìn)一步提升語義孿生網(wǎng)絡(luò)的判別力。

其仍然沿用SiamFC在跟蹤過程中所有幀都和第一幀對比,是該類方法的主要缺陷。

相關(guān)工作

RPN詳細(xì)介紹:https://mp.weixin.qq.com/s/VXgbJPVoZKjcaZjuNwgh-A

SiamFC詳細(xì)介紹:https://mp.weixin.qq.com/s/kS9osb2JBXbgb_WGU_3mcQ

SiamRPN詳細(xì)介紹:https://mp.weixin.qq.com/s/pmnip3LQtQIIm_9Po2SndA

1.SiamFC:對于A,B,C三個圖片,假設(shè)C圖片和A圖片是一個物體,但是外觀發(fā)生了一些變化,B和A沒有任何關(guān)系。SiamFC網(wǎng)絡(luò)輸入兩張圖片,那么經(jīng)過SiamFC后會得到A和C相似度高,A和B相似度低。通過上述SiamFC的功能,自然地其可以用于目標(biāo)跟蹤算法中。SiamFC網(wǎng)絡(luò)突出優(yōu)點:無需在線fine-tune和end-to-end跟蹤模式,使得其可以做到保證跟蹤效果的前提下進(jìn)行實時跟蹤。

2.集成跟蹤器:大多數(shù)跟蹤是一個模型A,利用模型A對當(dāng)前數(shù)據(jù)進(jìn)行計算得到跟蹤結(jié)果,集成跟蹤器就是它有多個模型A,B,C,分別對當(dāng)前數(shù)據(jù)進(jìn)行分析,然后對結(jié)果融合得到最終的跟蹤結(jié)果。本文的語義特征+外觀特征正是借鑒了集成跟蹤器的思路。在集成跟蹤器,模型A,B,C相關(guān)度越低,跟蹤效果越好,這個很好理解,如果他們?nèi)浅O嚓P(guān),那么用三個和用一個沒啥區(qū)別,因為這個原因,本文的語義特征和外觀特征網(wǎng)絡(luò)在訓(xùn)練過程中是完全不相關(guān)的。

框架

提議的雙重SA-Siam網(wǎng)絡(luò)的體系結(jié)構(gòu)。A-Net表示外觀網(wǎng)絡(luò)。用虛線連接的網(wǎng)絡(luò)和數(shù)據(jù)結(jié)構(gòu)與SiamFC完全相同。S-Net表示語義網(wǎng)絡(luò)。提取最后兩個卷積層的特征。信道關(guān)注模塊基于目標(biāo)和上下文信息確定每個特征信道的權(quán)重。外觀分支和語義分支是單獨訓(xùn)練的,直到測試時間才結(jié)合。

1.外觀分支(藍(lán)色部分)

一個目標(biāo)A送到網(wǎng)絡(luò)P里,一個比目標(biāo)大的搜索域S送到網(wǎng)絡(luò)P里,A出來的特征圖與S出來的特征圖進(jìn)行卷積操作得到相關(guān)系數(shù)圖,相關(guān)系數(shù)越大,越可能是同一個目標(biāo),網(wǎng)絡(luò)則采用和SiamFC中一樣的網(wǎng)絡(luò)。

外觀分支以(z,X)為輸入。它克隆了SiamFC網(wǎng)絡(luò)。用于提取外觀特征的卷積網(wǎng)絡(luò)稱為A-Net。來自外觀分支的響應(yīng)映射可以寫為:

L(y,v)=\\frac{1}{D}\\sum_{u\\in D}l(y[u],v[u])

在相似性學(xué)習(xí)問題中,A-Net中的所有參數(shù)都是從頭開始訓(xùn)練的。

通過最小化邏輯損失函數(shù)L(·)來優(yōu)化A-Net,如下:

arg \\min_{\\theta_a}\\frac{1}{N} \\sum^N_{i=1}{(L(h_a(z_i,X_i,\\theta_a),Y_i))}

其中θa表示A-Net中的參數(shù),N是訓(xùn)練樣本的數(shù)量,Yi是ground truth的響應(yīng)。

2.語義分支(橙色部分)

這篇文章的重點便是此。橙色的表示語義網(wǎng)絡(luò),用的是預(yù)訓(xùn)練好的AlexNet,在訓(xùn)練和測試時固定所有參數(shù),只提取最后conv4和conv5的特征,目標(biāo)模板變?yōu)閦s,zs和X一樣大,和z有一樣的中心,但包含了上下文信息,因為支路上加了通道注意力模型,通過目標(biāo)和周圍的信息來決定權(quán)重,選擇對特定跟蹤目標(biāo)影響更大的通道。另外,為了更好的進(jìn)行后續(xù)的相關(guān)操作,作者將上下兩支路加入融合模型,加入了1×1的卷積層,對提取的兩層每層進(jìn)行卷積操作,使目標(biāo)模板支路和檢測支路的特征通道相同,而且通道總數(shù)和外觀網(wǎng)絡(luò)的通道一樣。

語義分支網(wǎng)絡(luò)訓(xùn)練時只訓(xùn)練通道注意力模塊和融合模塊。

來自語義分支的響應(yīng)映射可以寫為:

h_s(z^s,X)=corr(g(\\xi ·f_s(z)),g(f_s(X)))

ξ是通道權(quán)重,g()是對特征進(jìn)行融合,便于相關(guān)操作。

損失函數(shù)L(·)如下:

arg \\min_{\\theta_a}\\frac{1}{N} \\sum^N_{i=1}{(L(h_s(z_i^s,X_s,\\theta_a),Y_i))}

其中θs表示可訓(xùn)練參數(shù),N是訓(xùn)練樣本的數(shù)量。

3.結(jié)合

外觀網(wǎng)絡(luò)和語義網(wǎng)絡(luò)分開訓(xùn)練,語義網(wǎng)絡(luò)只訓(xùn)練通道注意力模塊和融合模塊。在測試時間內(nèi),最終的響應(yīng)圖計算為來自兩個分支的圖的加權(quán)平均值:

h(z^s,X)=\\lambda h_a(z,X)+(1-\\lambda)h_s(z^s,X)

其中 λ 是加權(quán)參數(shù),以平衡兩個分支的重要性。在實踐中,λ可以從驗證集估計。作者通過實驗得出 λ=0.3 最好。

4.語義分支中的Channel Attention機(jī)制

為什么要這么做:高維語義特征對目標(biāo)的外觀(圖片的形變、旋轉(zhuǎn)等)變化是魯棒的,導(dǎo)致判別力低。為了提升語義分支的判別力,我們設(shè)計了一個Channel Attention模塊。直覺上,在跟蹤不同的物體時,不同的通道扮演著不同的角色,某些通道對于一些物體來說是極其重要的,但是對于其他物體而言則可以被忽略,甚至可能引入噪聲。如果我們能自適應(yīng)的調(diào)整通道的重要性,那么我們將獲得目標(biāo)跟可靠地特征表達(dá)。為了達(dá)到這個目的,不僅目標(biāo)對于我們來說是重要的,其周圍一定范圍內(nèi)的背景對于我們來說同樣重要,因此這里輸入網(wǎng)絡(luò)的模板要比外觀分支大一圈。

下面講具體怎么實現(xiàn)這個功能的。

通道注意力通過最大池化層和多層感知器(MLP)生成通道i的加權(quán)系數(shù)ξi。

上述圖中,假設(shè)是conv5層的第i個通道特征圖,維度為22×22,將該圖分割成3×3份(其中中間的那份為6×6,是準(zhǔn)確的目標(biāo)),經(jīng)過max-pooling操作后變成3×3的圖,經(jīng)過一個兩層的MLP網(wǎng)絡(luò)(Multi-Layer Perceptron多層感知機(jī),含有9個神經(jīng)元和一個隱層,隱層采用ReLU函數(shù))后得到分?jǐn)?shù),在sigmoid一下(為了讓得分系數(shù)在0~1之間)得到最終的得分系數(shù)。值得注意的是:這里的得分系數(shù)計算操作僅僅在第一幀進(jìn)行計算,后續(xù)幀沿用第一幀的結(jié)果,所以其計算時間是可以忽略不計的。

實驗

數(shù)據(jù)維度:在我們的實現(xiàn)中,目標(biāo)圖像塊z的尺寸為127×127×3,并且zs和X都具有255×255×3的尺寸。對于z和X,A-Net的輸出特征具有尺寸分別為6×6×256和22×22×256。來自S-Net的conv4和conv5功能具有尺寸為24×24×384和22×22×256通道的zs和X。這兩組功能的1×1 ConvNet每個輸出128個通道(最多可達(dá)256個通道) ),空間分辨率不變。響應(yīng)圖具有相同的17×17維度。

學(xué)習(xí)更多編程知識,請關(guān)注我的公眾號:

代碼的路

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    LabVIEW 不適用于實時處理( Real-Time )的應(yīng)用?

    答案:No! LabVIEW有Real-Time實時作業(yè)模塊,可以讓LabVIEW程序在RTOS上執(zhí)行。常見的作業(yè)系統(tǒng),諸如 Microsoft Windows 與 Mac OS 等,是針對一般用途
    發(fā)表于 10-21 10:53

    如何獲得NI Linux Real-Time系統(tǒng)?

    現(xiàn)在在做上下位機(jī)實時通信的課題,哪位大俠有關(guān)于real-time的資料,感激不盡,小弟郵箱944950215@qq.com
    發(fā)表于 05-08 21:34

    如何獲得NI Linux Real-Time系統(tǒng)?

    現(xiàn)在在做上下位機(jī)實時通信的課題,哪位大俠有關(guān)于real-time的資料,感激不盡,小弟郵箱944950215@qq.com
    發(fā)表于 03-25 11:19

    FPGA and Real-time技術(shù)

    中級篇 II什么是Real-time(實時) 1-4選擇合適的LabVIEW實時開収平臺 5-20FPGA深層解析 21-23FPGA技術(shù)介紹:五大優(yōu)勢 24-34基于FPGA的控制:數(shù)百萬個供您遣用的晶體管——FP
    發(fā)表于 07-01 09:04 ?20次下載

    Real-Time DSP Implementation f

    Abstract—This paper describes the real-time implementationof a simple and robust motion detection
    發(fā)表于 07-01 16:09 ?14次下載

    Improved Real-Time Quantitativ

    For faster, improved real-time quantitative PCR (qPCR) results choose Agilent●   
    發(fā)表于 08-17 11:55 ?14次下載

    BQ32002,pdf(Real-Time Clock (R

    The BQ32002 device is a compatible replacement for industry standard real-time clocks.The BQ32002
    發(fā)表于 10-28 19:54 ?23次下載

    DS1346,DS1347(compatible real-time clocks RTCs)

    The DS1346/DS1347 SPI-compatible real-time clocks (RTCs) contain a real-time clock/calendar and 31
    發(fā)表于 08-19 09:59 ?19次下載
    DS1346,DS1347(compatible <b class='flag-5'>real-time</b> clocks RTCs)

    MathWorks推出Simulink Real-Time,提供完整、集成的實時仿真和測試

    中國北京–2014年8月5日–MathWorks宣布將把Simulink Real-Time?用于Simulink?產(chǎn)品系列。
    發(fā)表于 08-07 17:08 ?5112次閱讀

    基于信息熵的級聯(lián)Siamese網(wǎng)絡(luò)目標(biāo)跟蹤方法

    目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域的一個重要研究方向,針對目前算法對于目標(biāo)外觀變化的魯棒性較差等問題,提出了一種基于信息熵的級聯(lián) Siamese網(wǎng)絡(luò)
    發(fā)表于 05-07 14:11 ?1次下載

    SiamFC:用于目標(biāo)跟蹤的全卷積孿生網(wǎng)絡(luò) fully-convolutional siamese networks for object tracking

    原文鏈接 SiamFC網(wǎng)絡(luò) 圖中z代表的是模板圖像,算法中使用的是第一幀的ground truth;x代表的是search region,代表在后面的待跟蹤幀中的候選框搜索區(qū)域;?代表的是一種特征
    的頭像 發(fā)表于 01-11 17:35 ?1506次閱讀
    SiamFC:<b class='flag-5'>用于</b><b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>的全卷積<b class='flag-5'>孿生</b><b class='flag-5'>網(wǎng)絡(luò)</b> fully-convolutional <b class='flag-5'>siamese</b> networks for <b class='flag-5'>object</b> <b class='flag-5'>tracking</b>

    SiamRPN:High Performance Visual Tracking with Siamese Region Proposal Network 孿生網(wǎng)絡(luò)

    /Li_High_Performance_Visual_CVPR_2018_paper.pdf 摘要 大多數(shù)性能優(yōu)越的視覺目標(biāo)跟蹤器很難有實時速度。在這篇文章中,我們提出了孿生候選區(qū)域
    的頭像 發(fā)表于 01-11 17:41 ?1129次閱讀
    SiamRPN:High Performance Visual <b class='flag-5'>Tracking</b> with <b class='flag-5'>Siamese</b> Region Proposal <b class='flag-5'>Network</b> <b class='flag-5'>孿生</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    DW-Siam:Deeper and Wider Siamese Networks for Real-Time Visual Tracking 更寬更深的孿生網(wǎng)絡(luò)

    原文鏈接 論文地址:https://arxiv.org/pdf/1901.01660.pdf 摘要 目前在孿生網(wǎng)絡(luò)追蹤器中使用的主干網(wǎng)絡(luò)相對較淺,例AlexNet。本文研究如何利用更深和更廣的卷積
    的頭像 發(fā)表于 01-12 09:24 ?875次閱讀
    DW-<b class='flag-5'>Siam</b>:Deeper and Wider <b class='flag-5'>Siamese</b> Networks for <b class='flag-5'>Real-Time</b> Visual <b class='flag-5'>Tracking</b> 更寬更深的<b class='flag-5'>孿生</b><b class='flag-5'>網(wǎng)絡(luò)</b>

    新版本Real-time Edge正式發(fā)布啦!高效的工業(yè)邊緣實時應(yīng)用開發(fā),就用它!

    Real-time Edge Software是恩智浦提供的針對工業(yè)和物聯(lián)網(wǎng)領(lǐng)域的一套軟件集,面對工業(yè)和物聯(lián)網(wǎng)垂直領(lǐng)域的具體需求,提供了針對性的實時系統(tǒng)、工業(yè)實時網(wǎng)絡(luò)和豐富的工業(yè)協(xié)議支
    的頭像 發(fā)表于 08-18 08:05 ?1324次閱讀
    新版本<b class='flag-5'>Real-time</b> Edge正式發(fā)布啦!高效的工業(yè)邊緣<b class='flag-5'>實時</b>應(yīng)用開發(fā),就用它!

    恩智浦Real-time Edge v2.7正式發(fā)布!

    Real-time Edge軟件是恩智浦提供的針對工業(yè)和物聯(lián)網(wǎng)應(yīng)用的一套軟件集,面對工業(yè)和物聯(lián)網(wǎng)垂直領(lǐng)域的具體需求,提供了針對性的實時系統(tǒng), 工業(yè)實時網(wǎng)絡(luò)和豐富的工業(yè)協(xié)議支持。
    的頭像 發(fā)表于 01-26 09:19 ?639次閱讀
    恩智浦<b class='flag-5'>Real-time</b> Edge v2.7正式發(fā)布!
    主站蜘蛛池模板: 老湿机一区午夜精品免费福利| H厨房灌草莓| 伦理片 a在线线版韩国| oldgrand欧洲老妇人| 亚洲精品不卡在线| 漂亮的保姆6在线观看中文 | 99国产精品久久| 亚洲人成网站在线播放| 日日噜噜夜夜爽爽| 恋夜秀场支持安卓版全部视频国产 | 九九电影伦理片| 国产精品久人妻精品| www.av色| 日日噜噜大屁股熟妇| 伊人久久青草| 荷兰少归BVBV| 特黄特色大片免费播放器9| 成熟YIN荡美妞A片视频麻豆| 欧美性爱 先锋影音| 好大快用力深一点h视频| 俄罗斯bbbbbbbbb大片| 99久久国产综合精品国| 在线免费观看日本| 亚洲欧美人成视频在线| 午夜片无码区在线观看| 日本19禁啪啪吃奶大尺度| 老师你奶真大下面水真多| 精品无码国产自产在线观看| 国产亚洲精品久久77777| 超碰在线97av视频免费| 99久久国产极品蜜臀AV酒店| 5G年龄确认我已满18免费| 亚洲一卡二卡三卡四卡2021麻豆| 性美国人xxxxx18| 天天日免费观看视频一1| 日本人娇小hd| 日韩精品 中文字幕 有码| 日本国产成人精品无码区在线网站| 欧美男同gay粗大又长| 欧美xxxx印度| 欧美午夜精品久久久久久浪潮 |