色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華&美團提出稀疏Pairwise損失函數(shù)!ReID任務超已有損失函數(shù)!

CVer ? 來源:CVer ? 2023-04-09 10:18 ? 次閱讀

ReID任務的目的是從海量圖像中檢索出與給定query相同ID的實例。

Pairwise損失函數(shù)在ReID 任務中發(fā)揮著關(guān)鍵作用。現(xiàn)有方法都是基于密集采樣機制,即將每個實例都作為錨點(anchor)采樣其正樣本和負樣本構(gòu)成三元組。這種機制不可避免地會引入一些幾乎沒有視覺相似性的正對,從而影響訓練效果。為了解決這個問題,我們提出了一種新穎的損失范式,稱為稀疏Pairwise (SP) 損失,在ReID任務中針對mini-batch的每一類篩選出少數(shù)合適的樣本對來構(gòu)造損失函數(shù)(如圖1所示)。基于所提出的損失框架,我們進一步提出了一種自適應正挖掘策略,可以動態(tài)地適應不同類別內(nèi)部的變化。大量實驗表明,SP 損失及其自適應變體AdaSP 損失在多個ReID數(shù)據(jù)集上均優(yōu)于其他成對損失方法,并取得了state-of-the-art性能。

d8a2c002-d629-11ed-bfe3-dac502259ad0.png

圖1. Sparse pairwise損失與Dense pairwise損失之間的差異

d8bb4884-d629-11ed-bfe3-dac502259ad0.png

Adaptive Sparse Pairwise Loss for Object Re-Identification

論文地址:https://arxiv.org/abs/2303.18247

Github地址(已開源):

https://github.com/Astaxanthin/AdaSP

研究動機:

ReID任務中的由于光照變化、視角改變和遮擋等原因會造成同一類中不同實例的視覺相似度很低(如圖2所示),因此由視覺相似度很低的實例(我們稱之為harmful positive pair)構(gòu)成的正樣本對會對特征表示的學習過程帶來不利的影響,從而使訓練收斂至局部極小點。現(xiàn)有的方法都是以每個樣本作為錨(anchor)密集采樣正樣本對來構(gòu)造度量損失函數(shù),不可避免的會引入大量壞對影響訓練結(jié)果。基于此,我們提出了稀疏Pairwise損失函數(shù)以降低對壞對的采樣概率,從而減輕壞對在訓練過程的不利影響。

d8cd9ba6-d629-11ed-bfe3-dac502259ad0.png

圖2. 行人ReID數(shù)據(jù)集上不同級別的類內(nèi)差異

方法介紹:我們提出的稀疏Pairwise損失函數(shù)(命名為SP loss)針對每一類僅采樣一個正樣本對和一個負樣本對。其中負樣本對為該類別與其他所有類別間最難的負樣本對,而正樣本對為所有樣本的hard positive pair集合中的最不難positive pair(least-hard mining):

d8f9ed14-d629-11ed-bfe3-dac502259ad0.png

從幾何角度看,以最難positive pair的距離作為半徑的超球面是能夠覆蓋所有類內(nèi)樣本的最大球,而以hard positive pair集合中最不難positive pair的距離作為半徑的超球面是能夠副高所有類內(nèi)樣本的最小球,如圖3所示。利用最小球能夠有效的避免過于難的harmful positive pair對于訓練過程的影響,我們從理論上證明了針對一個mini-batch,我們的方法采樣得到的正樣本對中harmful positive pair的期望占比小于Triplet-BH和Circle等密集采樣方法。

d906d934-d629-11ed-bfe3-dac502259ad0.png

圖3. 不同級別類內(nèi)差異差異下的最大和最小覆蓋球。

為了適應不同類別可能具有不同的類內(nèi)差異,我們在SP loss的基礎上增加了自適應策略構(gòu)成AdaSP loss:

d9169d7e-d629-11ed-bfe3-dac502259ad0.png

d92431fa-d629-11ed-bfe3-dac502259ad0.png

d939626e-d629-11ed-bfe3-dac502259ad0.png

該loss通過動態(tài)調(diào)整構(gòu)造loss所用到的正樣本對相似度以適應不同的類內(nèi)差異。

實驗結(jié)果:

我們在多個行人ReID數(shù)據(jù)集(包括MSMT17,Market1501,DukeMTMC,CUHK03)和車輛ReID數(shù)據(jù)集(包括VeRi-776,VehicleID,VERIWild)上驗證了AdaSP loss的有效性。實驗結(jié)果顯示AdaSP loss在單獨使用時超過Triplet-BH,Circle,MS,Supcon,EP等已有度量損失函數(shù),如表1所示;AdaSP loss在不同骨干網(wǎng)絡(包括ResNet-50/101/152,ResNet-IBN,MGN,ViT,DeiT)上的ReID性能均優(yōu)于Triplet-BH;此外,AdaSP loss結(jié)合分類損失函數(shù)在ReID任務上達到了State-of-the-art的性能。

表1. 在不同數(shù)據(jù)集上不同度量損失函數(shù)的性能比較

d94748fc-d629-11ed-bfe3-dac502259ad0.png

具體細節(jié)可以參考原文。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4359

    瀏覽量

    63531
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1217

    瀏覽量

    25115
  • REID
    +關(guān)注

    關(guān)注

    1

    文章

    18

    瀏覽量

    10953

原文標題:CVPR 2023 | 清華&美團提出稀疏Pairwise損失函數(shù)!ReID任務超已有損失函數(shù)!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦

    對象檢測邊界框損失函數(shù)–從IOU到ProbIOU介紹

    目標檢測損失函數(shù)的選擇在目標檢測問題建模中至關(guān)重要。通常,目標檢測需要兩個損失函數(shù),一個用于對象分類,另一個用于邊界框回歸(BBR)。
    的頭像 發(fā)表于 01-24 10:50 ?3691次閱讀
    對象檢測邊界框<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>–從IOU到ProbIOU介紹

    TensorFlow損失函數(shù)(定義和使用)詳解

    了如何實現(xiàn)不同類型的損失函數(shù)。那么根據(jù)手頭的回歸任務,你可以選擇相應的損失函數(shù)或設計自己的損失
    發(fā)表于 07-28 14:38

    keras常用的損失函數(shù)Losses與評價函數(shù)Metrics介紹

    ,這使得它在設置中可用作損失函數(shù)。如果&amp;#039; y_true &amp;#039;或&amp;#039; y_pred &
    發(fā)表于 08-18 06:31

    神經(jīng)網(wǎng)絡中的損失函數(shù)層和Optimizers圖文解讀

    對于許多機器學習算法來說,最終要解決的問題往往是最小化一個函數(shù),我們通常稱這個函數(shù)損失函數(shù)。在神經(jīng)網(wǎng)絡里面同樣如此,損失
    的頭像 發(fā)表于 11-30 16:09 ?8361次閱讀

    機器學習經(jīng)典損失函數(shù)比較

    所有的機器學習算法都或多或少的依賴于對目標函數(shù)最大化或者最小化的過程。我們常常將最小化的函數(shù)稱為損失函數(shù),它主要用于衡量模型的預測能力。
    的頭像 發(fā)表于 06-13 17:53 ?8738次閱讀
    機器學習經(jīng)典<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>比較

    機器學習實用指南:訓練和損失函數(shù)

    這個損失函數(shù)是合理的,因為當 $t$ 接近 0 時,$-log(t)$ 變得非常大,所以如果模型估計一個正例概率接近于 0,那么損失函數(shù)將會很大,同時如果模型估計一個負例的概率接近 1
    的頭像 發(fā)表于 06-29 15:02 ?8706次閱讀
    機器學習實用指南:訓練和<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>

    三種常見的損失函數(shù)和兩種常用的激活函數(shù)介紹和可視化

    從上面闡釋的步驟可以看出,神經(jīng)網(wǎng)絡中的權(quán)重由損失函數(shù)的導數(shù)而不是損失函數(shù)本身來進行更新或反向傳播。因此,損失
    的頭像 發(fā)表于 05-05 11:42 ?7412次閱讀
    三種常見的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>和兩種常用的激活<b class='flag-5'>函數(shù)</b>介紹和可視化

    深度學習的19種損失函數(shù)你了解嗎?帶你詳細了解

    損失函數(shù)通過torch.nn包實現(xiàn)基本用法 criterion = LossCriterion() #構(gòu)造函數(shù)有自己的參數(shù)loss = criterion(x, y) #調(diào)用標準時也有參數(shù)19種
    的頭像 發(fā)表于 09-14 10:34 ?1.1w次閱讀

    計算機視覺的損失函數(shù)是什么?

    損失函數(shù)在模型的性能中起著關(guān)鍵作用。選擇正確的損失函數(shù)可以幫助你的模型學習如何將注意力集中在數(shù)據(jù)中的正確特征集合上,從而獲得最優(yōu)和更快的收斂。
    的頭像 發(fā)表于 03-13 16:30 ?3705次閱讀
    計算機視覺的<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>是什么?

    損失函數(shù)的簡要介紹

    例如,你有一個神經(jīng)網(wǎng)絡,通過該網(wǎng)絡可以獲取一些與房屋有關(guān)的數(shù)據(jù)并預測其價格。在這種情況下,你可以使用MSE(均方誤差)損失。基本上,在輸出為實數(shù)的情況下,應使用此損失函數(shù)
    的頭像 發(fā)表于 04-17 10:01 ?3705次閱讀

    機器學習和深度學習中分類與回歸常用的幾種損失函數(shù)

    本文將介紹機器學習、深度學習中分類與回歸常用的幾種損失函數(shù),包括均方差損失 Mean Squared Loss、平均絕對誤差損失 Mean Absolute Error Loss、Hu
    的頭像 發(fā)表于 10-09 16:36 ?6407次閱讀
    機器學習和深度學習中分類與回歸常用的幾種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>

    表示學習中7大損失函數(shù)的發(fā)展歷程及設計思路

    表示學習的目的是將原始數(shù)據(jù)轉(zhuǎn)換成更好的表達,以提升下游任務的效果。在表示學習中,損失函數(shù)的設計一直是被研究的熱點。損失指導著整個表示學習的過程,直接決定了表示學習的效果。這篇文章總結(jié)了
    的頭像 發(fā)表于 07-08 14:23 ?2491次閱讀

    詳細分析14種可用于時間序列預測的損失函數(shù)

    在處理時間序列預測問任務時,損失函數(shù)的選擇非常重要,因為它會驅(qū)動算法的學習過程。以往的工作提出了不同的損失
    的頭像 發(fā)表于 02-14 09:19 ?3159次閱讀

    語義分割25種損失函數(shù)綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強調(diào)了它們的重要特征和應用,并進行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?1242次閱讀
    語義分割25種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>綜述和展望

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡)在處理序列數(shù)據(jù)的過程中,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測量模型在訓練中的表現(xiàn),并推動模型朝著正確的方向?qū)W習。RN
    的頭像 發(fā)表于 11-15 10:16 ?975次閱讀
    主站蜘蛛池模板: 97视频视频人人碰视频 | 无码国产成人777爽死在线观看 | 黄页免费观看 | 亚洲欧美成人无码久久久 | 性一交一无一伦一精一品 | 99久久精品国产一区二区三区 | 5g天天奭视频 | 国产午夜精品久久久久婷婷 | 男男高H啪肉Np文多攻多一受 | 国产午夜不卡 | 性与肉体电影免费观看 | 热re99久久精品国99热 | 蜜柚免费视频高清观看在线 | 亚洲三级在线中文字幕 | 最新2017年韩国伦理片在线 | 狠狠色欧美亚洲狠狠色www | 小xav导航 | 红桃传媒少妇人妻网站无码抽插 | 国产精品自在自线亚洲 | 翁公吮她的花蒂和奶水 | 乡土女性网动态图解 | 久久高清内射无套 | 欧美黄色一级 | 最近日本字幕MV免费观看在线 | 欧美18在线 | 扒开屁股眼往里面夹东西 | 亚洲精品久久久久无码AV片软件 | 麻豆XXXX乱女少妇精品 | 国产亚洲综合视频 | 国产精品久久久久久影院 | 亚洲成A人片在线观看中文不卡 | 国产精品九九久久精品视 | 欧美xxxav| 国产亚洲精品久久无亚洲 | 久久久无码精品亚洲A片软件 | 久久AV无码AV高潮AV不卡 | 中文字幕高清在线中文字幕 | 日本精品久久久久中文字幕 1 | 特级淫片大乳女子高清视频 | 囯产精品久久久久免费蜜桃 | TIMI1TV天美传媒在线观看 |

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品