色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

點(diǎn)云采樣方法新創(chuàng)新,深度學(xué)習(xí)與傳統(tǒng)的結(jié)合

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-10-08 15:46 ? 次閱讀

1 前言

點(diǎn)云作為一種重要的數(shù)據(jù)表示,廣泛應(yīng)用于自動(dòng)駕駛、增強(qiáng)現(xiàn)實(shí)和機(jī)器人技術(shù)等領(lǐng)域。由于點(diǎn)云數(shù)據(jù)量通常很大,對(duì)其進(jìn)行采樣以獲得一個(gè)具有代表性的點(diǎn)集子集是三維計(jì)算機(jī)視覺中的一個(gè)基礎(chǔ)和重要的任務(wù)。除了隨機(jī)采樣和最遠(yuǎn)點(diǎn)采樣之外,大多數(shù)傳統(tǒng)的點(diǎn)云采樣方法都是基于數(shù)學(xué)統(tǒng)計(jì)的,例如均勻采樣、網(wǎng)格采樣和幾何采樣等,這些方法對(duì)于點(diǎn)云密度和分布比較敏感。最近,一些基于神經(jīng)網(wǎng)絡(luò)的方法開始通過端到端的任務(wù)驅(qū)動(dòng)學(xué)習(xí)方式進(jìn)行更好的任務(wù)定向采樣,例如S-Net、SampleNet、DA-Net等。

但是這些方法大多是基于生成模型的,而不是直接選擇點(diǎn)。另一方面,為點(diǎn)云設(shè)計(jì)基于神經(jīng)網(wǎng)絡(luò)的局部特征聚合算子的工作越來越多。雖然其中一些(例如 PointCNN 、PointASNL 、GSS )在學(xué)習(xí)潛在特征時(shí)減少了點(diǎn)數(shù),但由于處理過程中不存在真正的空間點(diǎn),它們很難被認(rèn)為是真實(shí)意義上的采樣方法。此外,上述方法都沒有將形狀輪廓視為特殊特征。受 Canny 邊緣檢測(cè)算法和注意力機(jī)制的啟發(fā),本文提出了一種基于非生成注意力的點(diǎn)云邊緣采樣方法 (APES),結(jié)合了基于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和基于數(shù)學(xué)統(tǒng)計(jì)的直接點(diǎn)選擇。

APES使用注意力機(jī)制來計(jì)算相關(guān)圖和樣本邊緣點(diǎn),這些邊緣點(diǎn)的屬性反映在這些相關(guān)圖中。提出了兩種具有不同注意力模式的 APES。此外,我們的方法可以將輸入點(diǎn)云下采樣到任何所需的大小。基于鄰居到點(diǎn)(N2P)注意,計(jì)算每個(gè)點(diǎn)與其相鄰點(diǎn)之間的相關(guān)映射,提出了基于局部的APES基于點(diǎn)對(duì)點(diǎn) (P2P) 注意力,它計(jì)算所有點(diǎn)之間的相關(guān)性圖,提出了基于全局的 APES本文的貢獻(xiàn)如下:

1)一種點(diǎn)云邊緣采樣方法,稱為 APES,它結(jié)合了基于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和基于數(shù)學(xué)統(tǒng)計(jì)的直接點(diǎn)選擇2)通過使用兩種不同的注意力模式,基于局部的 APES 和基于全局的 APES 的兩種變體3)公共點(diǎn)云基準(zhǔn)上的良好定性和定量結(jié)果,證明了所提出的采樣方法的有效性。這里也推薦「3D視覺工坊」新課程三維點(diǎn)云處理:算法與實(shí)戰(zhàn)匯總2 相關(guān)背景

傳統(tǒng)點(diǎn)云采樣方法

隨機(jī)采樣(RS):簡(jiǎn)單高效,但無法控制采樣點(diǎn)分布。

最遠(yuǎn)點(diǎn)采樣(FPS):迭代選擇點(diǎn)云中最遠(yuǎn)點(diǎn),目前最廣泛使用。

均勻采樣:選擇點(diǎn)云中均勻分布的點(diǎn)。

網(wǎng)格采樣:使用規(guī)則網(wǎng)格采樣點(diǎn),無法精確控制點(diǎn)數(shù)。

幾何采樣:基于局部幾何信息采樣,例如曲率。

逆密度采樣(IDIS):采樣距離和值較小的點(diǎn)。

深度學(xué)習(xí)點(diǎn)云采樣方法

S-Net:直接從全局特征生成新點(diǎn)坐標(biāo)。

SampleNet:在S-Net基礎(chǔ)上引入軟投影操作。

DA-Net:考慮點(diǎn)云密度進(jìn)行自適應(yīng)采樣。

MOPS-Net:學(xué)習(xí)采樣變換矩陣與原點(diǎn)云相乘生成新點(diǎn)云。

PST-NET:使用self-attention層替代S-Net中的MLP層。

但是現(xiàn)有的深度學(xué)習(xí)采樣方法大多基于生成模型,不能直接選擇點(diǎn),也沒有考慮形狀邊緣作為特殊特征。

3 方法

3.1 圖像中的Canny邊緣檢測(cè)

Canny圖像邊緣檢測(cè)流程:

(i)應(yīng)用高斯濾波器平滑圖像;

(ii) 找到圖像的強(qiáng)度梯度;

(iii) 應(yīng)用梯度幅度閾值或下限截止抑制;

(iv) 應(yīng)用雙閾值來確定潛在邊;

(v) 通過抑制所有其他弱且不連接到強(qiáng)邊的邊來最終檢測(cè)邊緣。

替換的邊緣檢測(cè)

核心思想是計(jì)算每個(gè)像素的梯度強(qiáng)度。可以更通用地考慮:

定義像素與鄰域像素之間的相關(guān)特性

計(jì)算歸一化的相關(guān)性映射,是像素的鄰域;

計(jì)算的標(biāo)準(zhǔn)差,大的像素點(diǎn)為邊緣點(diǎn)

使用標(biāo)準(zhǔn)差代替了梯度計(jì)算,該方法相比原本的圖像的Canny邊緣檢測(cè)器計(jì)算成本更高,但卻可以將其應(yīng)用于點(diǎn)云邊緣采樣。相比圖像規(guī)整的排列,點(diǎn)云通常是不規(guī)則的,無序的,甚至是稀疏的,因此基于體素的3D卷積不適用。與圖像具有多種屬性(如RGB或灰度值)相比,對(duì)于許多點(diǎn)云來說,點(diǎn)坐標(biāo)可能是唯一可用的特征。

310d8f2e-65ae-11ee-939d-92fbcf53809c.png

圖1 使用標(biāo)準(zhǔn)偏差來選擇邊緣像素/點(diǎn)的圖示。在中心像素/點(diǎn)與其相鄰像素之間計(jì)算歸一化相關(guān)圖。中心像素/點(diǎn)作為鄰居自包含。歸一化相關(guān)圖中的較大標(biāo)準(zhǔn)偏差意味著它是邊緣像素/點(diǎn)的可能性更高。

3.2 基于局部的點(diǎn)云邊緣采樣

對(duì)于點(diǎn)云,我們定義近鄰定義每個(gè)點(diǎn)的局部鄰域點(diǎn)云,然后延續(xù)剛剛的替換Canny邊緣檢測(cè)算法的思路。

定義點(diǎn)與鄰域點(diǎn)的基于局部的相關(guān)特性

計(jì)算歸一化的基于局部的相關(guān)性映射

計(jì)算的標(biāo)準(zhǔn)差,大的像素點(diǎn)為邊緣點(diǎn)

其中,與原始的Transformer的模型相比,和 分別表示應(yīng)用于查詢輸入和關(guān)鍵輸入的線性層,即為,特征維度計(jì)數(shù)平方根用作比例因子稱之為鄰域-點(diǎn)(N2P)注意力,它捕獲局部信息。

3.3 基于全局的點(diǎn)云邊緣采樣

對(duì)于采樣問題,全局信息也是至關(guān)重要的。考慮k = N的情況,利用線性層Q和K共享所有點(diǎn),將其稱為點(diǎn)對(duì)點(diǎn) (P2P) 注意力,基于全局的相關(guān)特性與相關(guān)性映射如下:得到全相關(guān)性圖本文改為按列計(jì)算和(而不是行),計(jì)算得到,較大的點(diǎn)作為邊緣點(diǎn)采樣。主要考慮到,如果點(diǎn)鄰近邊緣點(diǎn),那么應(yīng)較大,如果在中對(duì)應(yīng)的列元素的值也較大,那么也可能是邊緣點(diǎn)。

311dadd2-65ae-11ee-939d-92fbcf53809c.png

圖2 所提出方法的關(guān)鍵思想。N 表示點(diǎn)的總數(shù),而 k 表示用于基于局部采樣方法的鄰居數(shù)量。

3.4 網(wǎng)絡(luò)框架

基于上述兩種模塊,本文構(gòu)建了分類網(wǎng)絡(luò)和分割網(wǎng)絡(luò),如下圖所示

3129b938-65ae-11ee-939d-92fbcf53809c.png

圖3 用于分類的網(wǎng)絡(luò)架構(gòu)(左上)和分割(右上)。還給出了 N2P 注意力特征學(xué)習(xí)層(左下)、兩個(gè)替代下采樣層(左下)和上采樣層(右下)的結(jié)構(gòu)。這兩種下采樣層將點(diǎn)云從 N 個(gè)點(diǎn)下采樣到 M 個(gè)點(diǎn),而上采樣層將其從 M 個(gè)點(diǎn)上采樣到 N 個(gè)點(diǎn)。

主要組成部分:

編碼層:提取點(diǎn)云特征。

采樣層:應(yīng)用提出的基于局部或全局的邊緣點(diǎn)采樣方法進(jìn)行下采樣。

解碼層:使用注意力機(jī)制進(jìn)行上采樣。

4 實(shí)驗(yàn)

4.1 分類網(wǎng)絡(luò)

數(shù)據(jù)集:ModelNet40定量比較:分類精度與SOTA方法處于同水平

31399f88-65ae-11ee-939d-92fbcf53809c.png

表1 ModelNet40 上的分類結(jié)果。與其他僅使用原始點(diǎn)云作為輸入的 SOTA 方法相比。請(qǐng)注意,我們報(bào)告的結(jié)果沒有考慮投票策略。

定性結(jié)果

314e6288-65ae-11ee-939d-92fbcf53809c.png

圖5 基于局部的APES和基于全局的APES在不同形狀上的可視化采樣結(jié)果。所有形狀都來自測(cè)試集。

4.2 分割網(wǎng)絡(luò)

數(shù)據(jù)集:ShapeNetPart定量分析:分割精度略差于SOTA,但對(duì)下采樣點(diǎn)云的中間結(jié)果優(yōu)于SOTA,說明下采樣的邊緣點(diǎn)對(duì)于算法的性能貢獻(xiàn)較大,而由于邊緣下采樣改變了點(diǎn)云的分布,導(dǎo)致插值上采樣無法重構(gòu)。這里也推薦「3D視覺工坊」新課程三維點(diǎn)云處理:算法與實(shí)戰(zhàn)匯總定性結(jié)果

316ebef2-65ae-11ee-939d-92fbcf53809c.png

圖6 將可視化分割結(jié)果作為形狀點(diǎn)云進(jìn)行下采樣。所有形狀都來自測(cè)試集。

4.3 消融實(shí)驗(yàn)

數(shù)據(jù)集:ModelNet40Feature Learning Layer

317e8cba-65ae-11ee-939d-92fbcf53809c.png

Embedding Dimension

31947638-65ae-11ee-939d-92fbcf53809c.png

Choice of k in local-based APES

31a27986-65ae-11ee-939d-92fbcf53809c.png

Successive sampling vs. Direct sampling

31aff5ca-65ae-11ee-939d-92fbcf53809c.png

Additional edge point supervision

31be4f62-65ae-11ee-939d-92fbcf53809c.png

4.4 對(duì)比實(shí)驗(yàn)

數(shù)據(jù)集:ModelNet40定量分析:

31caa6b8-65ae-11ee-939d-92fbcf53809c.png

定性分析:

31d54348-65ae-11ee-939d-92fbcf53809c.png

計(jì)算復(fù)雜度比較

31e796e2-65ae-11ee-939d-92fbcf53809c.png

5 總結(jié)

本文提出了一種基于注意力的點(diǎn)云邊緣采樣(APES)方法。它使用注意力機(jī)制相應(yīng)地計(jì)算相關(guān)圖并采樣邊緣點(diǎn)。基于不同的注意力模式,提出了基于局部 APES 和基于全局的 APES 的兩種變體。定性和定量結(jié)果表明,我們的方法在常見的點(diǎn)云基準(zhǔn)任務(wù)上取得了良好的性能。在未來的工作中,可以為訓(xùn)練設(shè)計(jì)其他補(bǔ)充損失。此外,我們注意到邊緣點(diǎn)采樣的不同點(diǎn)分布阻礙了后期上采樣操作和分割性能。設(shè)計(jì)能夠更好地應(yīng)對(duì)邊緣點(diǎn)采樣的上采樣方法會(huì)很有趣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:CVPR2023 | 點(diǎn)云采樣方法新創(chuàng)新,深度學(xué)習(xí)與傳統(tǒng)的結(jié)合

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于深度學(xué)習(xí)的三維點(diǎn)配準(zhǔn)方法

    基于深度學(xué)習(xí)的三維點(diǎn)配準(zhǔn)方法成為研究的主流,并隨之誕生了DeepVCP、DGR、Predator等著名的
    發(fā)表于 11-29 11:41 ?1872次閱讀

    校企雙進(jìn) | 機(jī)智走進(jìn)華南農(nóng)業(yè)大學(xué)創(chuàng)新創(chuàng)業(yè)論壇

    聯(lián)網(wǎng)教育實(shí)驗(yàn)室和人才培養(yǎng)計(jì)劃。11月8日,機(jī)智副總裁邢雁女士受華南農(nóng)業(yè)大學(xué)科聯(lián)邀請(qǐng)?jiān)谄涞?8期創(chuàng)新創(chuàng)業(yè)論壇中進(jìn)行分享,帶大學(xué)生們開啟了一場(chǎng)與物聯(lián)網(wǎng)的深入對(duì)話,了解物聯(lián)網(wǎng)的“前世今生”,看物聯(lián)網(wǎng)是怎樣
    發(fā)表于 11-14 17:07

    圖像分類的方法深度學(xué)習(xí)傳統(tǒng)機(jī)器學(xué)習(xí)

    實(shí)際情況非常復(fù)雜,傳統(tǒng)的分類方法不堪重負(fù)。現(xiàn)在,我們不再試圖用代碼來描述每一個(gè)圖像類別,決定轉(zhuǎn)而使用機(jī)器學(xué)習(xí)方法處理圖像分類問題。 目前,許多研究者使用CNN等
    發(fā)表于 09-28 19:43 ?0次下載

    基于深度學(xué)習(xí)模型的點(diǎn)目標(biāo)檢測(cè)及ROS實(shí)現(xiàn)

    近年來,隨著深度學(xué)習(xí)在圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學(xué)習(xí)模型的點(diǎn)目標(biāo)檢測(cè)
    的頭像 發(fā)表于 11-05 16:47 ?1.8w次閱讀

    一種基于點(diǎn)的Voxel(三維體素)特征的深度學(xué)習(xí)方法

    特征學(xué)習(xí)網(wǎng)絡(luò)的結(jié)構(gòu)如下圖所示,包括體素分塊(Voxel Partition),點(diǎn)分組(Grouping),隨機(jī)采樣(Random Sampling),多層的體素特征編碼(Stacke
    的頭像 發(fā)表于 12-07 09:32 ?2.2w次閱讀

    基于深度學(xué)習(xí)的三維點(diǎn)語義分割研究分析

    近年來,深度傳感器和三維激光掃描儀的普及推動(dòng)了三維點(diǎn)處理方法的快速發(fā)展。點(diǎn)語義分割作為理解三
    發(fā)表于 04-01 14:48 ?16次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的三維<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>語義分割研究分析

    基于深度學(xué)習(xí)點(diǎn)對(duì)齊算法3DMatch

    點(diǎn)對(duì)齊是點(diǎn)數(shù)據(jù)處理的重要步驟之一,粗對(duì)齊則是其中的難點(diǎn)。近年來,基于深度學(xué)習(xí)
    發(fā)表于 04-23 15:48 ?5次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>對(duì)齊算法3DMatch

    針對(duì)復(fù)雜場(chǎng)景處理的點(diǎn)深度學(xué)習(xí)網(wǎng)絡(luò)

    點(diǎn)數(shù)據(jù)的分類和語義分割在自動(dòng)駕駛、智能機(jī)器人、全息投影等領(lǐng)域中有著重要應(yīng)用。傳統(tǒng)手工提取點(diǎn)特征的方式,以及將三維
    發(fā)表于 05-18 16:01 ?10次下載

    結(jié)合基擴(kuò)展模型和深度學(xué)習(xí)的信道估計(jì)方法

    結(jié)合基擴(kuò)展模型和深度學(xué)習(xí)的信道估計(jì)方法
    發(fā)表于 06-30 10:43 ?62次下載

    深度學(xué)習(xí)傳統(tǒng)計(jì)算機(jī)視覺技術(shù)在新興領(lǐng)域的比較

    是不是深度學(xué)習(xí)就可以解決所有問題呢?是不是它就比傳統(tǒng)計(jì)算機(jī)視覺方法好呢?但是深度學(xué)習(xí)無法解決所有
    的頭像 發(fā)表于 11-28 11:01 ?1685次閱讀

    傳統(tǒng)CV和深度學(xué)習(xí)方法的比較

    計(jì)算機(jī)視覺的兩個(gè)方面結(jié)合起來。評(píng)論了幾種最近的混合方法論,這些方法論證明了改善計(jì)算機(jī)視覺性能和解決不適合深度學(xué)習(xí)的問題的能力。例如,將
    的頭像 發(fā)表于 11-29 17:09 ?1171次閱讀

    基于深度學(xué)習(xí)點(diǎn)分割的方法介紹

      摘 要:點(diǎn)分割是點(diǎn)數(shù)據(jù)理解中的一個(gè)關(guān)鍵技術(shù),但傳統(tǒng)算法無法進(jìn)行實(shí)時(shí)語義分割。近年來深度
    發(fā)表于 07-20 15:23 ?3次下載

    基于深度學(xué)習(xí)的3D點(diǎn)實(shí)例分割方法

    3D實(shí)例分割(3DIS)是3D領(lǐng)域深度學(xué)習(xí)的核心問題。給定由點(diǎn)云表示的 3D 場(chǎng)景,我們尋求為每個(gè)點(diǎn)分配語義類和唯一的實(shí)例標(biāo)簽。 3DIS 是一項(xiàng)重要的 3D 感知任務(wù),在自動(dòng)駕駛、增
    發(fā)表于 11-13 10:34 ?2579次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的3D<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>實(shí)例分割<b class='flag-5'>方法</b>

    深度學(xué)習(xí)傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器學(xué)習(xí)的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1509次閱讀

    基于深度學(xué)習(xí)的三維點(diǎn)分類方法

    近年來,點(diǎn)云表示已成為計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)之一,并廣泛應(yīng)用于自動(dòng)駕駛、虛擬現(xiàn)實(shí)、機(jī)器人等許多領(lǐng)域。雖然深度學(xué)習(xí)技術(shù)在處理常規(guī)結(jié)構(gòu)化的二維網(wǎng)格圖像數(shù)據(jù)方面取得了巨大成功,但在處理不規(guī)則、非結(jié)構(gòu)化的
    的頭像 發(fā)表于 10-29 09:43 ?764次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的三維<b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>分類<b class='flag-5'>方法</b>
    主站蜘蛛池模板: 俄罗斯6一9泑女网站 | 亚洲国产成人爱AV在线播放丿 | 色欲久久精品AV无码 | 日本一卡二卡三卡四卡无卡免费播放 | 狠狠插综合 | 樱桃bt在线www | 久久久WWW免费人成精品 | 在线观看免费国产成人软件 | 啊灬啊灬啊灬快灬深高潮啦 | 51精品少妇人妻AV一区二区 | 国产片MV在线观看 | 成人区精品一区二区不卡AV免费 | 中文字幕本庄优花喂奶 | 国产精品久久欧美一区 | 精品一区二区三区免费毛片 | 嗯啊好爽视频 | 国产免费毛片在线观看 | 欧美高清videos 360p | 色男人的天堂久久综合 | 久草在线新是免费视频 | 父皇轻点插好疼H限 | 亚洲免费人成在线视频观看 | 在线观看国产区 | 中国女人内谢69xxxxxx直播 | 亚洲精品久久AV无码蜜桃 | 久久操韩国自偷拍 | 久久国产加勒比精品无码 | 九九久久精品 | 色爰情人网站 | 国产精品系列在线观看 | 国产中文字幕乱码免费 | 日日做夜夜欢狠狠免费软件 | 99久视频只有精品2019 | 美女被j进去动态 | 俄罗斯美女性生活 | 香蕉人人超人人超碰超国产 | 末成年美女黄网站色大片连接 | 中文字幕亚洲无线码一区 | 欧美亚洲综合另类无码 | 国产一区精选播放022 | 国产在线精品亚洲另类 |