色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華&美團(tuán)提出稀疏Pairwise損失函數(shù)!ReID任務(wù)超已有損失函數(shù)!

CVer ? 來源:CVer ? 2023-04-09 10:18 ? 次閱讀

ReID任務(wù)的目的是從海量圖像中檢索出與給定query相同ID的實(shí)例。

Pairwise損失函數(shù)在ReID 任務(wù)中發(fā)揮著關(guān)鍵作用?,F(xiàn)有方法都是基于密集采樣機(jī)制,即將每個(gè)實(shí)例都作為錨點(diǎn)(anchor)采樣其正樣本和負(fù)樣本構(gòu)成三元組。這種機(jī)制不可避免地會(huì)引入一些幾乎沒有視覺相似性的正對,從而影響訓(xùn)練效果。為了解決這個(gè)問題,我們提出了一種新穎的損失范式,稱為稀疏Pairwise (SP) 損失,在ReID任務(wù)中針對mini-batch的每一類篩選出少數(shù)合適的樣本對來構(gòu)造損失函數(shù)(如圖1所示)。基于所提出的損失框架,我們進(jìn)一步提出了一種自適應(yīng)正挖掘策略,可以動(dòng)態(tài)地適應(yīng)不同類別內(nèi)部的變化。大量實(shí)驗(yàn)表明,SP 損失及其自適應(yīng)變體AdaSP 損失在多個(gè)ReID數(shù)據(jù)集上均優(yōu)于其他成對損失方法,并取得了state-of-the-art性能。

d8a2c002-d629-11ed-bfe3-dac502259ad0.png

圖1. Sparse pairwise損失與Dense pairwise損失之間的差異

d8bb4884-d629-11ed-bfe3-dac502259ad0.png

Adaptive Sparse Pairwise Loss for Object Re-Identification

論文地址:https://arxiv.org/abs/2303.18247

Github地址(已開源):

https://github.com/Astaxanthin/AdaSP

研究動(dòng)機(jī):

ReID任務(wù)中的由于光照變化、視角改變和遮擋等原因會(huì)造成同一類中不同實(shí)例的視覺相似度很低(如圖2所示),因此由視覺相似度很低的實(shí)例(我們稱之為harmful positive pair)構(gòu)成的正樣本對會(huì)對特征表示的學(xué)習(xí)過程帶來不利的影響,從而使訓(xùn)練收斂至局部極小點(diǎn)。現(xiàn)有的方法都是以每個(gè)樣本作為錨(anchor)密集采樣正樣本對來構(gòu)造度量損失函數(shù),不可避免的會(huì)引入大量壞對影響訓(xùn)練結(jié)果?;诖?,我們提出了稀疏Pairwise損失函數(shù)以降低對壞對的采樣概率,從而減輕壞對在訓(xùn)練過程的不利影響。

d8cd9ba6-d629-11ed-bfe3-dac502259ad0.png

圖2. 行人ReID數(shù)據(jù)集上不同級別的類內(nèi)差異

方法介紹:我們提出的稀疏Pairwise損失函數(shù)(命名為SP loss)針對每一類僅采樣一個(gè)正樣本對和一個(gè)負(fù)樣本對。其中負(fù)樣本對為該類別與其他所有類別間最難的負(fù)樣本對,而正樣本對為所有樣本的hard positive pair集合中的最不難positive pair(least-hard mining):

d8f9ed14-d629-11ed-bfe3-dac502259ad0.png

從幾何角度看,以最難positive pair的距離作為半徑的超球面是能夠覆蓋所有類內(nèi)樣本的最大球,而以hard positive pair集合中最不難positive pair的距離作為半徑的超球面是能夠副高所有類內(nèi)樣本的最小球,如圖3所示。利用最小球能夠有效的避免過于難的harmful positive pair對于訓(xùn)練過程的影響,我們從理論上證明了針對一個(gè)mini-batch,我們的方法采樣得到的正樣本對中harmful positive pair的期望占比小于Triplet-BH和Circle等密集采樣方法。

d906d934-d629-11ed-bfe3-dac502259ad0.png

圖3. 不同級別類內(nèi)差異差異下的最大和最小覆蓋球。

為了適應(yīng)不同類別可能具有不同的類內(nèi)差異,我們在SP loss的基礎(chǔ)上增加了自適應(yīng)策略構(gòu)成AdaSP loss:

d9169d7e-d629-11ed-bfe3-dac502259ad0.png

d92431fa-d629-11ed-bfe3-dac502259ad0.png

d939626e-d629-11ed-bfe3-dac502259ad0.png

該loss通過動(dòng)態(tài)調(diào)整構(gòu)造loss所用到的正樣本對相似度以適應(yīng)不同的類內(nèi)差異。

實(shí)驗(yàn)結(jié)果:

我們在多個(gè)行人ReID數(shù)據(jù)集(包括MSMT17,Market1501,DukeMTMC,CUHK03)和車輛ReID數(shù)據(jù)集(包括VeRi-776,VehicleID,VERIWild)上驗(yàn)證了AdaSP loss的有效性。實(shí)驗(yàn)結(jié)果顯示AdaSP loss在單獨(dú)使用時(shí)超過Triplet-BH,Circle,MS,Supcon,EP等已有度量損失函數(shù),如表1所示;AdaSP loss在不同骨干網(wǎng)絡(luò)(包括ResNet-50/101/152,ResNet-IBN,MGN,ViT,DeiT)上的ReID性能均優(yōu)于Triplet-BH;此外,AdaSP loss結(jié)合分類損失函數(shù)在ReID任務(wù)上達(dá)到了State-of-the-art的性能。

表1. 在不同數(shù)據(jù)集上不同度量損失函數(shù)的性能比較

d94748fc-d629-11ed-bfe3-dac502259ad0.png

具體細(xì)節(jié)可以參考原文。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4345

    瀏覽量

    62874
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24792
  • REID
    +關(guān)注

    關(guān)注

    1

    文章

    18

    瀏覽量

    10868

原文標(biāo)題:CVPR 2023 | 清華&美團(tuán)提出稀疏Pairwise損失函數(shù)!ReID任務(wù)超已有損失函數(shù)!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    對象檢測邊界框損失函數(shù)–從IOU到ProbIOU介紹

    目標(biāo)檢測損失函數(shù)的選擇在目標(biāo)檢測問題建模中至關(guān)重要。通常,目標(biāo)檢測需要兩個(gè)損失函數(shù),一個(gè)用于對象分類,另一個(gè)用于邊界框回歸(BBR)。
    的頭像 發(fā)表于 01-24 10:50 ?3043次閱讀
    對象檢測邊界框<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>–從IOU到ProbIOU介紹

    TensorFlow損失函數(shù)(定義和使用)詳解

    了如何實(shí)現(xiàn)不同類型的損失函數(shù)。那么根據(jù)手頭的回歸任務(wù),你可以選擇相應(yīng)的損失函數(shù)或設(shè)計(jì)自己的損失
    發(fā)表于 07-28 14:38

    keras常用的損失函數(shù)Losses與評價(jià)函數(shù)Metrics介紹

    ,這使得它在設(shè)置中可用作損失函數(shù)。如果&amp;#039; y_true &amp;#039;或&amp;#039; y_pred &
    發(fā)表于 08-18 06:31

    神經(jīng)網(wǎng)絡(luò)中的損失函數(shù)層和Optimizers圖文解讀

    對于許多機(jī)器學(xué)習(xí)算法來說,最終要解決的問題往往是最小化一個(gè)函數(shù),我們通常稱這個(gè)函數(shù)損失函數(shù)。在神經(jīng)網(wǎng)絡(luò)里面同樣如此,損失
    的頭像 發(fā)表于 11-30 16:09 ?8295次閱讀

    機(jī)器學(xué)習(xí)經(jīng)典損失函數(shù)比較

    所有的機(jī)器學(xué)習(xí)算法都或多或少的依賴于對目標(biāo)函數(shù)最大化或者最小化的過程。我們常常將最小化的函數(shù)稱為損失函數(shù),它主要用于衡量模型的預(yù)測能力。
    的頭像 發(fā)表于 06-13 17:53 ?8595次閱讀
    機(jī)器學(xué)習(xí)經(jīng)典<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>比較

    機(jī)器學(xué)習(xí)實(shí)用指南:訓(xùn)練和損失函數(shù)

    這個(gè)損失函數(shù)是合理的,因?yàn)楫?dāng) $t$ 接近 0 時(shí),$-log(t)$ 變得非常大,所以如果模型估計(jì)一個(gè)正例概率接近于 0,那么損失函數(shù)將會(huì)很大,同時(shí)如果模型估計(jì)一個(gè)負(fù)例的概率接近 1
    的頭像 發(fā)表于 06-29 15:02 ?8584次閱讀
    機(jī)器學(xué)習(xí)實(shí)用指南:訓(xùn)練和<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>

    三種常見的損失函數(shù)和兩種常用的激活函數(shù)介紹和可視化

    從上面闡釋的步驟可以看出,神經(jīng)網(wǎng)絡(luò)中的權(quán)重由損失函數(shù)的導(dǎo)數(shù)而不是損失函數(shù)本身來進(jìn)行更新或反向傳播。因此,損失
    的頭像 發(fā)表于 05-05 11:42 ?7234次閱讀
    三種常見的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>和兩種常用的激活<b class='flag-5'>函數(shù)</b>介紹和可視化

    深度學(xué)習(xí)的19種損失函數(shù)你了解嗎?帶你詳細(xì)了解

    損失函數(shù)通過torch.nn包實(shí)現(xiàn)基本用法 criterion = LossCriterion() #構(gòu)造函數(shù)有自己的參數(shù)loss = criterion(x, y) #調(diào)用標(biāo)準(zhǔn)時(shí)也有參數(shù)19種
    的頭像 發(fā)表于 09-14 10:34 ?1.1w次閱讀

    計(jì)算機(jī)視覺的損失函數(shù)是什么?

    損失函數(shù)在模型的性能中起著關(guān)鍵作用。選擇正確的損失函數(shù)可以幫助你的模型學(xué)習(xí)如何將注意力集中在數(shù)據(jù)中的正確特征集合上,從而獲得最優(yōu)和更快的收斂。
    的頭像 發(fā)表于 03-13 16:30 ?3593次閱讀
    計(jì)算機(jī)視覺的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>是什么?

    損失函數(shù)的簡要介紹

    例如,你有一個(gè)神經(jīng)網(wǎng)絡(luò),通過該網(wǎng)絡(luò)可以獲取一些與房屋有關(guān)的數(shù)據(jù)并預(yù)測其價(jià)格。在這種情況下,你可以使用MSE(均方誤差)損失?;旧?,在輸出為實(shí)數(shù)的情況下,應(yīng)使用此損失函數(shù)
    的頭像 發(fā)表于 04-17 10:01 ?3653次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中分類與回歸常用的幾種損失函數(shù)

    本文將介紹機(jī)器學(xué)習(xí)、深度學(xué)習(xí)中分類與回歸常用的幾種損失函數(shù),包括均方差損失 Mean Squared Loss、平均絕對誤差損失 Mean Absolute Error Loss、Hu
    的頭像 發(fā)表于 10-09 16:36 ?6282次閱讀
    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中分類與回歸常用的幾種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>

    表示學(xué)習(xí)中7大損失函數(shù)的發(fā)展歷程及設(shè)計(jì)思路

    表示學(xué)習(xí)的目的是將原始數(shù)據(jù)轉(zhuǎn)換成更好的表達(dá),以提升下游任務(wù)的效果。在表示學(xué)習(xí)中,損失函數(shù)的設(shè)計(jì)一直是被研究的熱點(diǎn)。損失指導(dǎo)著整個(gè)表示學(xué)習(xí)的過程,直接決定了表示學(xué)習(xí)的效果。這篇文章總結(jié)了
    的頭像 發(fā)表于 07-08 14:23 ?2259次閱讀

    詳細(xì)分析14種可用于時(shí)間序列預(yù)測的損失函數(shù)

    在處理時(shí)間序列預(yù)測問任務(wù)時(shí),損失函數(shù)的選擇非常重要,因?yàn)樗鼤?huì)驅(qū)動(dòng)算法的學(xué)習(xí)過程。以往的工作提出了不同的損失
    的頭像 發(fā)表于 02-14 09:19 ?2998次閱讀

    語義分割25種損失函數(shù)綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?755次閱讀
    語義分割25種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>綜述和展望

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))在處理序列數(shù)據(jù)的過程中,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測量模型在訓(xùn)練中的表現(xiàn),并推動(dòng)模型朝著正確的方向?qū)W習(xí)。RN
    的頭像 發(fā)表于 11-15 10:16 ?572次閱讀
    主站蜘蛛池模板: 美国69xxxx59 | 国产亚洲999精品AA片在线爽 | 亚洲精品在线不卡 | 国产无遮挡色视频免费观看性色 | 97人人添人人澡人人澡人人澡 | 亚洲高清国产拍精品动图 | 制服丝袜 快播 | 日本免费一区二区三区四区五六区 | 嘟嘟嘟在线视频免费观看高清中文 | 国产WW久久久久久久久久 | 久久久久免费视频 | 99久久久无码国产精精品 | 琪琪色原网20岁以下热热色原网站 | 我的美女房东未删减版免费观看 | 国产精品97久久久久久AV色戒 | 香港论理午夜电影网 | 一本道久在线综合色色 | 一二三四在线高清中文版免费观看电影 | 久久精品亚洲AV高清网站性色 | 亚洲视频精品在线观看 | 儿子好妈妈的HD3中字抢劫 | se01国产短视频在线观看 | 久久青草免费91线频观看站街 | 365电影成人亚洲网在线观看 | 亚洲中文无码亚洲人在线观看- | 99re10久久热| 国产精品亚洲一区二区三区久久 | 国产精品亚洲专区在线播放 | www亚洲欲色成人久久精品 | 拉菲娱乐主管高工资q39709 | 欧美 亚洲 中文字幕 高清 | 精品国产自在现线拍国语 | 欧美性狂猛bbbbbbxxxx | 99视频精品国产在线视频 | 女仆翻身大作战 | 一品探花论坛 | 久久视热频国只有精品 | 蜜桃精品成人影片 | 成人在线观看播放 | 精品无码久久久久久国产百度 | 久久精品一区 |