色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于層級(jí)圖網(wǎng)絡(luò)的圖卷積,用點(diǎn)云完成3D目標(biāo)檢測(cè)

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-24 15:25 ? 次閱讀

論文:A Hierarchical Graph Network for 3D Object Detection on Point Clouds

由于大多數(shù)現(xiàn)有的點(diǎn)云對(duì)象檢測(cè)方法不能充分適應(yīng)點(diǎn)云的特征(例如稀疏性),所以一些關(guān)鍵的語義信息(如物體形狀)不能被很好的捕捉到。本文提出了一種基于層級(jí)圖網(wǎng)絡(luò)(HGNet)的圖卷積(GConv),可以直接將點(diǎn)云作為輸入來預(yù)測(cè) 3D 的邊界框。形狀注意圖卷積(SA-GConv)可以通過劍魔點(diǎn)的位置星系來描述物體形狀,基于 SA-GConv 的 U 形網(wǎng)絡(luò)可以通過改進(jìn)的 voting 模塊獲取多層級(jí)的特征進(jìn)而生成候選,然后一個(gè)基于圖卷積的候選推理模塊考慮全局的場(chǎng)景語義來對(duì)邊界框進(jìn)行預(yù)測(cè)。該框架在兩個(gè)大規(guī)模點(diǎn)云數(shù)據(jù)上的表現(xiàn)超過了目前最先進(jìn)的模型。

論文背景

由于點(diǎn)云的稀疏性,一些已有的為網(wǎng)格形式數(shù)據(jù)設(shè)計(jì)的方法(如CNN)在點(diǎn)云上的表現(xiàn)并不好,為解決這一問題,最近有一些對(duì)點(diǎn)云數(shù)據(jù)的方法被提出,例如基于投影的方法、基于體卷積的方法和基于 PointNet 的方法。前兩種試圖將點(diǎn)云數(shù)據(jù)嚴(yán)格轉(zhuǎn)換為網(wǎng)格結(jié)構(gòu)數(shù)據(jù),而后一種則在不明確考慮點(diǎn)的幾何位置的情況下聚合特征。

與其他方法相比,PointNet++ 可以保留點(diǎn)的稀疏特點(diǎn),因此被廣泛作為框架的骨架。當(dāng)目前仍有一些未能很好解決的挑戰(zhàn),首先由于沒有考慮點(diǎn)的相對(duì)幾何位置,因此使用 PointNet++ 作為主干忽略了一些局部形狀信息。其次,框架的結(jié)構(gòu)沒有充分利用多級(jí)語義,這可能會(huì)忽略一些有助于目標(biāo)檢測(cè)的信息。

本文提出了一個(gè)基于圖卷積(GCONV)的層級(jí)圖網(wǎng)絡(luò)(HGNet)用于基于點(diǎn)云的 3D 目標(biāo)檢測(cè)。HGNet 包含三部分:一個(gè)基于圖卷積的 U 形網(wǎng)絡(luò)(GUnet)、一個(gè)候選生成器以及一個(gè)候選推理模塊(ProRe Module)。基于層級(jí)圖網(wǎng)絡(luò)(HGNet)的圖卷積

整個(gè) HGNet 以端到端的方式進(jìn)行培訓(xùn)。在本文的框架中,點(diǎn)云的局部形狀信息、多級(jí)語義和全局場(chǎng)景信息(候選的特征)已被層級(jí)圖模型充分捕獲、聚合和合并,充分考慮了點(diǎn)云數(shù)據(jù)的特征。

本文的主要貢獻(xiàn)如下:

(A)開發(fā)了一種新的層級(jí)圖網(wǎng)絡(luò)(HGNet),用于在點(diǎn)云上進(jìn)行 3D 對(duì)象檢測(cè),其表現(xiàn)好于已有方法。

(B)提出了一種新穎的 SA-(De)GConv,它可以有效地聚合特征并捕獲點(diǎn)云中對(duì)象的形狀信息。

(C)構(gòu)建了一個(gè)新的 GU-net,用于生成多級(jí)特征,這對(duì)于 3D 對(duì)象檢測(cè)至關(guān)重要。

(D)利用全局信息,ProRe 模塊通過對(duì)候選進(jìn)行推理來提高效果。

論文模型

融合采樣

3D 目標(biāo)檢測(cè)有基于點(diǎn)和基于體素兩種框架,前者更加耗時(shí),由候選生成與預(yù)測(cè)細(xì)化兩個(gè)階段組成。

在第一個(gè)階段,SA 用于降采樣以獲得更高的效率以及擴(kuò)大感受野,F(xiàn)P 用來為降采樣過程中丟掉的點(diǎn)傳播特征。在第二階段,一個(gè)優(yōu)化模塊最優(yōu)化 RPN 的結(jié)果以獲得更準(zhǔn)確的預(yù)測(cè)。SA 對(duì)于提取點(diǎn)的特征是必需的。但 FP 和優(yōu)化模塊會(huì)限制效率。

形狀注意圖卷積

點(diǎn)云通常不能清楚地表示出物體的形狀,可以使用其相鄰點(diǎn)的相對(duì)幾何位置來描述點(diǎn)周圍的局部形狀。本文介紹了一種新穎的形狀注意圖卷積,它通過對(duì)點(diǎn)的幾何位置建模來捕獲對(duì)象形狀。

對(duì)于一個(gè)點(diǎn)集 X,其中每一個(gè)點(diǎn)由其集合位置 p_i 以及 D 維的特征 f_i 組成,我們想要生成一個(gè) X’,本文設(shè)計(jì)了圖卷積用于聚合從 X 到 X’ 的特征。與 PointNet++的采樣層相類似,本文首先從 n 個(gè)點(diǎn)中采樣 n’ 個(gè)點(diǎn),通常 K 最近鄰(KNN)被用來在采樣中保留局部信息將其作為中心點(diǎn)特征。

其中 g 表示 i 和 j 的相對(duì)位置,通過一個(gè)卷積將三維變?yōu)橐痪S,f 是 mlp,然后二者的乘積就是中心點(diǎn)的 knn,其中最大的作為 i 的特征。形狀注意操作不同于簡(jiǎn)單的基于 mlp 的操作主要就是因?yàn)檫@個(gè) g 函數(shù)。雖然形式上沒有 attention 中的 softmax 這樣的歸一化,但是 g 的輸出就和 attention一樣,每個(gè)點(diǎn)的 weights,然后對(duì)應(yīng)的乘以特征。

審核編輯:符乾江


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    217

    瀏覽量

    15783
  • 點(diǎn)云
    +關(guān)注

    關(guān)注

    0

    文章

    58

    瀏覽量

    3878
收藏 0人收藏

    評(píng)論

    相關(guān)推薦

    一種以圖像為中心的3D感知模型BIP3D

    在具身智能系統(tǒng)中,3D感知算法是一個(gè)關(guān)鍵組件,它在端側(cè)幫助可以幫助智能體理解環(huán)境信息,在云端可以用來輔助生成3D場(chǎng)景和3D標(biāo)簽,具備重要的研究?jī)r(jià)值。現(xiàn)有主流算法主要依賴于點(diǎn)
    的頭像 發(fā)表于 03-17 13:44 ?174次閱讀
    一種以圖像為中心的<b class='flag-5'>3D</b>感知模型BIP<b class='flag-5'>3D</b>

    對(duì)于結(jié)構(gòu)光測(cè)量、3D視覺的應(yīng)用,使用100%offset的lightcrafter是否能用于點(diǎn)生成的應(yīng)用?

    你好,我有一些對(duì)于offset的疑問,希望能夠得到解答。 對(duì)于結(jié)構(gòu)光測(cè)量、3D視覺的應(yīng)用,使用100%offset的lightcrafter是否能用于點(diǎn)生成的應(yīng)用? 標(biāo)定和三角重建算法和zero
    發(fā)表于 02-28 06:20

    多維精密測(cè)量:半導(dǎo)體微型器件的2D&amp;3D視覺方案

    精密視覺檢測(cè)技術(shù)有效提升了半導(dǎo)體行業(yè)的生產(chǎn)效率和質(zhì)量保障。友思特自研推出基于深度學(xué)習(xí)平臺(tái)和視覺掃描系統(tǒng)的2D3D視覺檢測(cè)方案,通過9種深度學(xué)習(xí)模型、60+
    的頭像 發(fā)表于 01-10 13:54 ?343次閱讀
    多維精密測(cè)量:半導(dǎo)體微型器件的2<b class='flag-5'>D</b>&amp;<b class='flag-5'>3D</b>視覺方案

    C#通過Halcon實(shí)現(xiàn)3D點(diǎn)重繪

    C# 通過 Halcon 實(shí)現(xiàn) 3D 點(diǎn)重繪
    發(fā)表于 01-05 09:16 ?0次下載

    采用華為 Flexus 服務(wù)器 X 實(shí)例部署 YOLOv3 算法完成目標(biāo)檢測(cè)

    一、前言 1.1 開發(fā)需求 這篇文章講解:?采用華為最新推出的 Flexus 服務(wù)器 X 實(shí)例部署 YOLOv3 算法,完成圖像分析、目標(biāo)
    的頭像 發(fā)表于 01-02 12:00 ?315次閱讀
    采用華為<b class='flag-5'>云</b> Flexus <b class='flag-5'>云</b>服務(wù)器 X 實(shí)例部署 YOLOv<b class='flag-5'>3</b> 算法<b class='flag-5'>完成</b><b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    的是百度的Picodet模型,它是一種基于深度卷積網(wǎng)絡(luò)(DNN)的輕量級(jí)目標(biāo)檢測(cè)模型,具有非常高的檢測(cè)精度,可以在低算力設(shè)備進(jìn)行實(shí)時(shí)的端到端
    發(fā)表于 12-19 14:33

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機(jī)電系統(tǒng)中的故障檢測(cè)對(duì)其可維護(hù)性和安全性至關(guān)重要。然而,系統(tǒng)監(jiān)測(cè)變量往往具有復(fù)雜的聯(lián)系,很難表征它們的關(guān)系并提取有效的特征。本文開發(fā)了一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)(HGCAN),以提高復(fù)雜
    的頭像 發(fā)表于 11-12 09:52 ?688次閱讀
    一種基于因果路徑的層次<b class='flag-5'>圖卷積</b>注意力<b class='flag-5'>網(wǎng)絡(luò)</b>

    安寶特產(chǎn)品 安寶特3D Analyzer:智能的3D CAD高級(jí)分析工具

    安寶特3D Analyzer包含多種實(shí)用的3D CAD高級(jí)分析工具,包括自動(dòng)比對(duì)模型、碰撞檢測(cè)、間隙檢查、壁厚檢查,以及拔模和底切分析,能夠有效提升3D CAD模型
    的頭像 發(fā)表于 08-07 10:13 ?559次閱讀
    安寶特產(chǎn)品  安寶特<b class='flag-5'>3D</b> Analyzer:智能的<b class='flag-5'>3D</b> CAD高級(jí)分析工具

    卷積神經(jīng)網(wǎng)絡(luò)共包括哪些層級(jí)

    變換等復(fù)雜計(jì)算處理,從原始數(shù)據(jù)中提取并學(xué)習(xí)特征,最終完成分類、回歸等任務(wù)。下面將詳細(xì)闡述卷積神經(jīng)網(wǎng)絡(luò)所包含的層級(jí)
    的頭像 發(fā)表于 07-11 15:58 ?1819次閱讀

    基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)

    在計(jì)算機(jī)視覺領(lǐng)域,目標(biāo)檢測(cè)一直是研究的熱點(diǎn)和難點(diǎn)之一。特別是在小目標(biāo)檢測(cè)方面,由于小目標(biāo)在圖像中所占比例小、特征不明顯,使得
    的頭像 發(fā)表于 07-04 17:25 ?1431次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類方法有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語義分割等計(jì)算機(jī)視覺任務(wù)。本文將詳細(xì)介紹
    的頭像 發(fā)表于 07-03 09:40 ?688次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見
    的頭像 發(fā)表于 07-03 09:28 ?949次閱讀

    蘇州吳中區(qū)多色PCB板元器件3D視覺檢測(cè)技術(shù)

    3D視覺檢測(cè)相較于2D視覺檢測(cè),有其獨(dú)特的優(yōu)勢(shì),不受產(chǎn)品表面對(duì)比度影響,精確檢出產(chǎn)品形狀,可以測(cè)出高度(厚度)、體積、平整度等。在實(shí)際應(yīng)用中可以與2
    的頭像 發(fā)表于 06-14 15:02 ?562次閱讀
    蘇州吳中區(qū)多色PCB板元器件<b class='flag-5'>3D</b>視覺<b class='flag-5'>檢測(cè)</b>技術(shù)

    機(jī)器人3D視覺引導(dǎo)系統(tǒng)框架介紹

    通過自主開發(fā)的3D掃描儀可獲準(zhǔn)確并且快速地獲取場(chǎng)景的點(diǎn)云圖像,通過3D識(shí)別算法,可實(shí)現(xiàn)在對(duì)點(diǎn)云圖中的多種目標(biāo)物體進(jìn)行識(shí)別和位姿估計(jì)。
    發(fā)表于 04-29 09:31 ?448次閱讀
    機(jī)器人<b class='flag-5'>3D</b>視覺引導(dǎo)系統(tǒng)框架介紹

    利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)SAR目標(biāo)分類的研究

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種在圖像處理和計(jì)算機(jī)視覺領(lǐng)域廣泛應(yīng)用的深度學(xué)習(xí)模型,因其能夠自動(dòng)學(xué)習(xí)圖像的層次化特征表示而成為SAR目標(biāo)分類的理想選擇。
    發(fā)表于 04-08 09:39 ?618次閱讀
    利用<b class='flag-5'>卷積</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>實(shí)現(xiàn)SAR<b class='flag-5'>目標(biāo)</b>分類的研究
    主站蜘蛛池模板: 久久视频这里只精品6国产 久久视频在线视频观品15 | 乌克兰女人与动ZOZO | 久久久无码精品一区二区三区 | 亚洲AV福利天堂一区二区三 | 久久国产精品自线拍免费 | 国产女人乱人伦精品一区二区 | 国产精品无码无卡毛片不卡视 | 激情A片久久久久久久 | 美女内射视频WWW网站午夜 | 久青草国产在线观看视频 | 人妻中文字幕乱人伦在线 | 久久精品国产99欧美精品亚洲 | 亚洲精品视频免费在线观看 | 一本道久在线综合色色 | 成人在线不卡视频 | 色99久久久久高潮综合影院 | 果冻传媒2021在线观看 | 国产精品久久久久久人妻精品蜜桃 | 国产在线精品视频免费观看 | 用快播看黄的网站 | 儿子日母亲B好爽 | 乡土女性网动态图解 | 丰满女友bd高清在线观看 | 60岁老年熟妇在线无码 | 熟女久久久久久久久久久 | 婷婷久久无码欧美人妻 | 中文字幕伊人香蕉在线 | 黑人干亚洲人 | 99久久精品免费看国产一区二区 | 男女免费观看在线爽爽爽视频 | 久久午夜免费视频 | 女张腿男人桶羞羞漫画 | 99在线精品免费视频 | 伊人久久大香 | 精品AV国产一区二区三区 | 中文字幕在线观看亚洲日韩 | 国产精品久久久久久久久齐齐 | 向日葵视频app下载18岁以下勿看 | 忘忧草秋观看未满十八 | 拔萝卜视频免费看高清 | 丰满少妇发泄14p |

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品