色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

CCV 2023 | SparseBEV:高性能、全稀疏的純視覺3D目標檢測器

智能感知與物聯(lián)網技術研究所 ? 來源:未知 ? 2023-09-19 10:00 ? 次閱讀

本文介紹在3D 目標檢測領域的新工作:SparseBEV。我們所處的 3D 世界是稀疏的,因此稀疏 3D 目標檢測是一個重要的發(fā)展方向。然而,現(xiàn)有的稀疏 3D 目標檢測模型(如 DETR3D[1],PETR[2] 等)和稠密 3D 檢測模型(如 BEVFormer[3],BEVDet[8])在性能上尚有差距。針對這一現(xiàn)象,我們認為應該增強檢測器在 BEV 空間和 2D 空間的適應性(adaptability)。

基于此,我們提出了高性能、全稀疏的 SparseBEV 模型。在 nuScenes 驗證集上,SparseBEV 在取得 55.8 NDS 性能的情況下仍能維持 23.5 FPS 的實時推理速度。在 nuScenes 測試集上,SparseBEV 在僅使用 V2-99 這種輕量級 backbone 的情況下就取得了 67.5 NDS 的超強性能。如果用上 HoP[5] 和 StreamPETR-large[6] 等方法中的 ViT-large 作為 backbone,沖上 70+ 不在話下。

我們的工作已被 ICCV 2023 接收,論文、代碼和權重(包括我們在榜單上 67.5 NDS 的模型)均已公開:

wKgaomUJ_cKAZQFwAAHpJbPyZEM062.png

論文標題:

SparseBEV: High-Performance Sparse 3D Object Detection from Multi-Camera Videos

論文鏈接:

https://arxiv.org/abs/2308.09244

代碼鏈接:

https://github.com/MCG-NJU/SparseBEV

wKgaomUJ_cKAcy8NAAAl6LOgh3c015.png

引言

現(xiàn)有的 3D 目標檢測方法可以被分類為兩種:基于稠密 BEV 特征的方法和基于稀疏 query 的方法。前者需要構建稠密的 BEV 空間特征,雖然性能優(yōu)越,但是計算復雜度較大;基于稀疏 query 的方法避免了這一過程,結構更簡單,速度也更快,但是性能還落后于基于 BEV 的方法。因而我們自然而然地提出疑問:基于稀疏 query 的方法是否可以實現(xiàn)和基于稠密 BEV 的方法接近甚至更好的性能?

根據(jù)我們的實驗分析,我們認為實現(xiàn)這一目標的關鍵在于提升檢測器在 BEV 空間和 2D 空間的適應性。這種適應性是針對 query 而言的,即對于不同的 query,檢測器要能以不同的方式來編碼和解碼特征。這種能力正是之前的全稀疏 3D 檢測器 DETR3D 所欠缺的。

因此,我們提出了 SparseBEV,主要做了三個改進。首先,設計了尺度自適應的自注意力模塊(scale-adaptive self attention, SASA)以實現(xiàn)在 BEV 空間的自適應感受野。其次,我們設計了自適應性的時空采樣模塊以實現(xiàn)稀疏采樣的自適應性,并充分利用長時序的優(yōu)勢。最后,我們使用動態(tài) Mixing 來自適應地 decode 采到的特征。

早在今年的2月9日,ICCV 投稿前夕,我們的 SparseBEV(V2-99 backbone)就已經在 nuScenes 測試集上取得了65.6 NDS 的成績,超過了 BEVFormer V2[7] 等方法。如下圖所示,該方案命名為 SparseBEV-Beta,具體可見 eval.ai 榜單:https://eval.ai/web/challenges/challenge-page/356/leaderboard/1012

wKgaomUJ_cKACD_XAACAaKpBRoM048.jpg

最近,我們采用了一些來自 StreamPETR 的最新 setting,包括將 bbox loss 的 X 和 Y 的權重調為 2.0,并使用 query denoising 來穩(wěn)定訓練等等。現(xiàn)在,僅采用輕量級 V2-99 作為 backbone 的 SparseBEV 在測試集上就能夠實現(xiàn) 67.5 NDS 的超強性能,在純視覺 3D 檢測排行榜中排名第四(前三名均使用重量級的 ViT-large 作為 backbone):

wKgaomUJ_cOAfcCBAAB6bDdBIMc377.jpg

在驗證集的小規(guī)模的 Setting(ResNet50,704x256)下,SparseBEV 能取得 55.8 NDS 的性能,同時保持 23.5 FPS 的實時推理速度,充分發(fā)揮了 Sparse 設計帶來的優(yōu)勢。

wKgaomUJ_cOAJ8y4AAFoAd6sqUQ003.png

wKgaomUJ_cOAZJwKAAAuhh9-KLM785.png

方法

模型架構

wKgaomUJ_cOAbE-CAARE3OBhcyo472.png

SparseBEV 的模型架構如上所示,其核心模塊包括尺度自適應自注意力、自適應時空采樣、自適應融合。

Query Initialization

現(xiàn)有 query-based 方法都用 reference point 作為 query。在 SparseBEV 中,Query 包含的信息更豐富, 包括3D坐標 、尺寸 、旋轉角 、速度 ,以及對應的 維特征。每個 query 都被初始化為 pillar 的形狀, 為 0 且 約為 4,這是因為自駕場景中一般不會在 軸上出現(xiàn)多個物體。Scale-adaptive Self AttentionBEV 空間的多尺度特征提取很重要?;?Dense BEV 的方法往往通過 BEV Encoder 來顯式聚合多尺度特征(比如 BEVDet[8] 用 ResNet+FPN 組成 BEV Encoder 來提取多尺度的 BEV 特征,BEVFormer 則使用 Multi-scale Deformable Attention 來實現(xiàn) BEV 空間的多尺度),而基于稀疏 query 方法則做不到這一點。我們認為,稀疏 query 之間的 self attention 可以起到 BEV Encoder 的作用,而 DETR3D 中使用的標準的 Multi-head self attention (MHSA) 并不具備多尺度能力。因此,我們提出了尺度自適應自注意力模塊(scale-adaptive self attention, SASA),讓模型自己去決定合適的感受野:

wKgaomUJ_cOAeZkaAAA3CEzmfBE776.png

其中 表示兩個 query 中心點之間的歐式距離, 表示感受野的控制系數(shù),隨著 增大,遠距離的 query 的注意力權重減小,感受野相應縮小。當 時,SASA 退化為標準的擁有全局感受野的自注意力模塊。這里的 是通過對每個 query feature 使用一層 Linear 自適應生成的,并且每 個 head 生成的 都不同:

wKgaomUJ_cOAUXFaAAAYIzFzk6w201.png

其中 表示 query 特征維度, 表示 head 數(shù)量。在實驗中,我們發(fā)現(xiàn)了兩個有意思的現(xiàn)象:一:每個 head 生成的 值在一定范圍內呈現(xiàn)均勻分布,且該現(xiàn)象與 的初始化無關。該現(xiàn)象說明 SASA 能夠在不同 head 里進行不同尺度的特征聚合,與 FPN 的處理方式類似,進而從 datadriven 的角度證明了 BEV 空間的多尺度特征聚合的必要性。此外,相比于 FPN,SASA 的感受野更加靈活,可以根據(jù)數(shù)據(jù)自由學習。

wKgaomUJ_cSAYGWlAAUf6vCxJLQ713.png

二:不同類別的物體所對應的 query 生成的 值有著明顯差異。我們發(fā)現(xiàn),大物體(例如公交車)對應 query 的感受野明顯大于小物體對應 query(例如行人)的感受野。(如下圖所示。注意: 越大,感受野越?。?/span>

wKgaomUJ_cSAUvJcAAES07xmDCo951.png

相比于標準的 MHSA,SASA 幾乎沒有引入額外開銷,簡單又有效。在消融實驗中,使用 SASA 替換 MHSA 能直接暴漲 4.0 mAP 和 2.2 NDS:

wKgaomUJ_cSAU9zEAABopnyLVxo694.png

Adaptive Spatio-temporal Sampling

對于每個 query,我們對 query feature 使用一層 Linear 生成一系列 3D Offset:。接著,我們將這些 offset 相對于 query pillar 進行坐標變換以得到 3D 采樣點。采樣點生成過程如下:wKgaomUJ_cSAdE-PAAAz-fQeU84079.png ?

這樣,我們生成的采樣點可以適應于給定的 query,從而能夠更好地處理不同尺寸、遠近的物體。同時,這些采樣點并不局限于給定的 query bbox 內部,它們甚至可以撒到框外面去,這由模型自己決定。

接著,為了進一步捕捉長時序的信息,我們將采樣點 warp 到不同時刻的坐標系中,以此實現(xiàn)幀間對齊。在自動駕駛場景中,有兩種類型的運動:一是車自身的運動(ego motion),二是其他物體的運動(object motion)。對于 ego motion,我們使用數(shù)據(jù)集提供的 ego pose 來實現(xiàn)對齊;對于 object motion,我們利用 query 中定義的瞬時速度向量,并配合一個簡單的勻速運動模型來對運動物體進行自適應的對齊。這兩種對齊操作都能漲點:

wKgaomUJ_cWAQFwyAABfOAeTafQ067.png

隨后我們將 3D 采樣點投影到 2D 圖像并通過雙線性插值獲取對應位置的 2D 特征。這里有一個工程上的小細節(jié):由于是六張圖的環(huán)視輸入,DETR3D 是將每個采樣點分別投影到六個視圖中,并對正確的投影點抽到的特征取平均。我們發(fā)現(xiàn),大多數(shù)情況下就只有一個投影點是正確的,偶爾會有兩個(即采樣點位于相鄰視圖的重疊區(qū)域)。于是,我們干脆只取其中一個投影點(即使有時會有兩個),把它對應的視圖 ID 作為一個新的坐標軸,從而可以通過 Pytorch 內置的 grid sample 算子的 3D 版一步到位。這樣可以顯著提速,并且不咋掉點(印象里只掉了 0.1~0.2 NDS)。具體可以看代碼:https://github.com/MCG-NJU/SparseBEV/blob/main/models/sparsebev_sampling.py

對于稀疏采樣這塊,我們后來也基于 Deformable DETR 寫了一個 CUDA 優(yōu)化。不過,純 PyTorch 實現(xiàn)其實也挺快的,CUDA 優(yōu)化進一步提速了 15% 左右。

我們還提供了采樣點的可視化(第一行是當前幀,二三兩行是歷史前兩幀),可以看到,SparseBEV 的采樣點精準捕捉到了場景中不同尺度的物體(即在空間上具備適應性),且對于不同運動速度的物體也能很好的對齊(即在時間上具備適應性)。

wKgaomUJ_cWAZyMvAAZNVfdpmCk438.png

Adaptive Mixing

接著,我們對采到的特征的 channel 和 point 兩個維度分別進行 adaptive mixing[9]。假設共計 幀,每幀 個采樣點,我們首先將其堆疊為 個采樣點。因此 SparseBEV 屬于堆疊時序方案,可以很容易地融合未來幀的信息。

接著,我們對這些采樣點得到的特征進行 channel mixing,其中 mixing 的權重是根據(jù) query feature 動態(tài)生成的:

wKgaomUJ_cWAclSQAAAsiqKnXSk041.png

隨后對 point 維度進行同樣的 mixing 操作:

wKgaomUJ_cWAR3eVAAAuTXRxJbM965.png

Dual-branch SparseBEV

在實驗中,我們發(fā)現(xiàn)將輸入的多幀圖像分為 Fast、Slow 兩個分支處理可以進一步提升性能。具體地,我們將輸入分為高分辨率、低幀率的 Slow 分支和低分辨率、高幀率的 Fast 分支。于是,Slow 分支專注于提取高分辨率的靜態(tài)細節(jié),而 Fast 分支則專注于捕獲運動信息。加入 Dual-branch 的 SparseBEV 結構圖如下所示:wKgaomUJ_cWAEWWJAATRVyOY3Wc573.pngDual-branch 設計不光減小了訓練開支,還顯著提升了性能,具體可見補充材料。它的漲點說明了自駕長時序中的靜態(tài)細節(jié)和運動信息應該解耦處理。但是,它把整個模型搞得太復雜,因此我們默認情況下并沒有使用它(本文中只有測試集 NDS=63.6 的那行結果用了它)。

wKgaomUJ_caAZtuTAAAtJ0fTuoM144.png

實驗結果

wKgaomUJ_caAIpVJAAUdddf8eEw504.png

上表為 SparseBEV 與現(xiàn)有方法在 nuScenes 的驗證集上的結果對比,其中 ? 表示方法使用了透視預訓練。在使用 ResNet-50 作為 backbone 和 900 個 query,且輸入圖像分辨率為 704x256 的情況下,SparseBEV 超越現(xiàn)有最優(yōu)方法 SOLOFusion[4] 0.5 mAP 和 1.1 NDS。在使用 nuImages 預訓練并將 query 數(shù)量降低到 400 后,SparseBEV 在達到 55.8 的 NDS 的情況下仍能維持 23.5 FPS 的推理速度。而將 backbone 升級為 ResNet-101 并將輸入圖像尺寸升為 1408x512 后,SparseBEV 超越 SOLOFusion 達 1.8 mAP 和 1.0 NDS。

nuScenes test split

wKgaomUJ_caAC3mWAAUOreoRDZw093.png

上表為 SparseBEV 與現(xiàn)有方法在測試集上的結果對比,其中?表示方法使用了未來幀。在不使用未來幀的情況下,SparseBEV 取得了 62.7 NDS 和 54.3 mAP;其 Dual-branch 版本進一步提升到了 63.6 NDS 和 55.6 mAP。在加入未來幀后,SparseBEV 超越 BEVFormer V2 高達 2.8 mAP 和 2.2 NDS,而我們使用的 V2-99 僅約 70M 參數(shù),參數(shù)量遠低于 BEVFormer V2 使用的 InternImage-XL(超過 300M 參數(shù))。

wKgaomUJ_caAYGzeAAAr2pbNr48809.png ?

局限性

SparseBEV 的弱點還不少:1. SparseBEV 非常依賴 ego pose 來實現(xiàn)幀間對齊。在論文的 Table 5 中,如果不使用 ego-based warping,NDS 能掉 10 個點左右,幾乎和沒加時序一樣。2. SparseBEV 中使用的時序建模屬于堆疊時序,它的耗時和輸入幀數(shù)成正比。當輸入幀數(shù)太多的時候(比如 16 幀),會拖慢推理速度。3. 目前 SparseBEV 采用的訓練方式還是傳統(tǒng)方案。對于一次訓練迭代,DataLoader 會將所有幀全部 load 進來。這對于機器的 CPU 能力有較高的要求,因此我們使用了諸如 TurboJPEG 和 Pillow-SIMD 庫來加速 loading 過程。接著,所有的幀全部會經過 backbone,對 GPU 顯存也有一定要求。對于 ResNet50 和 8 幀 704x256 的輸入來說,2080Ti-11G 還可以塞下;但如果把分辨率、未來幀等等都拉滿,就只有 A100-80G 可以跑了。我們開源的代碼中使用的 Training 配置均為能跑的最低配置。目前有兩種解決方案:A. 將部分視頻幀的梯度截斷。我們開源的 config 中有個 stop_prev_grad 選項,它會將所有之前幀都以 no_grad 模式推理,只有當前幀會有梯度回傳。B. 另一種解決方案是采用 SOLOFusion、StreamPETR 等方法中使用的 sequence 訓練方案,省顯存省時間,我們未來可能會嘗試。

wKgaomUJ_ceAC7fZAAAtTL4L6hI003.png ?

結論

本文中,我們提出了一種全稀疏的單階段 3D 目標檢測器 SparseBEV。SparseBEV 通過尺度自適應自注意力、自適應時空采樣、自適應融合三個核心模塊提升了基于稀疏 query 模型的自適應性,取得了和基于稠密 BEV 的方法接近甚至更優(yōu)的性能。此外我們還提出了一種 Dual-branch 的結構進行更加高效的長時序處理。SparseBEV 在 nuScenes 同時實現(xiàn)了高精度和高速度。我們希望該工作可以對稀疏 3D 檢測范式有所啟發(fā)。 wKgaomUJ_ceAcN_TAAAC0jQz1zo162.jpg

參考文獻

wKgaomUJ_ceAcN_TAAAC0jQz1zo162.jpg ?[1] Wang Y, Guizilini V C, Zhang T, et al. Detr3d: 3d object detection from multi-view images via 3d-to-2d queries[C]//Conference on Robot Learning. PMLR, 2022: 180-191.[2] Liu Y, Wang T, Zhang X, et al. Petr: Position embedding transformation for multi-view 3d object detection[C]//European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022: 531-548.[3] Li Z, Wang W, Li H, et al. Bevformer: Learning bird’s-eye-view representation from multi-camera images via spatiotemporal transformers[C]//European conference on computer vision. Cham: Springer Nature Switzerland, 2022: 1-18.[4] Park J, Xu C, Yang S, et al. Time will tell: New outlooks and a baseline for temporal multi-view 3d object detection[J]. arXiv preprint arXiv:2210.02443, 2022.[5] Zong Z, Jiang D, Song G, et al. Temporal Enhanced Training of Multi-view 3D Object Detector via Historical Object Prediction[J]. arXiv preprint arXiv:2304.00967, 2023.[6] Wang S, Liu Y, Wang T, et al. Exploring Object-Centric Temporal Modeling for Efficient Multi-View 3D Object Detection[J]. arXiv preprint arXiv:2303.11926, 2023.[7] Yang C, Chen Y, Tian H, et al. BEVFormer v2: Adapting Modern Image Backbones to Bird's-Eye-View Recognition via Perspective Supervision[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 17830-17839.[8] Huang J, Huang G, Zhu Z, et al. Bevdet: High-performance multi-camera 3d object detection in bird-eye-view[J]. arXiv preprint arXiv:2112.11790, 2021.[9] Gao Z, Wang L, Han B, et al. Adamixer: A fast-converging query-based object detector[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 5364-5373. ·


原文標題:CCV 2023 | SparseBEV:高性能、全稀疏的純視覺3D目標檢測器

文章出處:【微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 物聯(lián)網

    關注

    2910

    文章

    44778

    瀏覽量

    374654

原文標題:CCV 2023 | SparseBEV:高性能、全稀疏的純視覺3D目標檢測器

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    多維精密測量:半導體微型器件的2D&3D視覺方案

    精密視覺檢測技術有效提升了半導體行業(yè)的生產效率和質量保障。友思特自研推出基于深度學習平臺和視覺掃描系統(tǒng)的2D3D
    的頭像 發(fā)表于 01-10 13:54 ?7次閱讀
    多維精密測量:半導體微型器件的2<b class='flag-5'>D</b>&amp;<b class='flag-5'>3D</b><b class='flag-5'>視覺</b>方案

    技術資訊 | 2.5D3D 封裝

    加速中的應用。3D封裝提供了出色的集成度,高效的散熱和更短的互連長度,是高性能應用的理想之選。在快速發(fā)展的半導體技術領域,封裝在很大程度上決定了電子設備的性能、
    的頭像 發(fā)表于 12-07 01:05 ?435次閱讀
    技術資訊 | 2.5<b class='flag-5'>D</b> 與 <b class='flag-5'>3D</b> 封裝

    全新升級,洛微發(fā)布高性能3D工業(yè)相機,為機器視覺注入新動能

    (以下簡稱“洛微科技”)于展會現(xiàn)場正式發(fā)布最新研究成果——D系列高性能3D工業(yè)相機DM,備受矚目,吸引了眾多現(xiàn)場觀眾駐足交流。洛微科技自成立以來,始終專注于高質量產品
    的頭像 發(fā)表于 10-14 16:29 ?50次閱讀
    全新升級,洛微發(fā)布<b class='flag-5'>高性能</b><b class='flag-5'>3D</b>工業(yè)相機,為機器<b class='flag-5'>視覺</b>注入新動能

    透明塑料件噴粉3D掃描CAV尺寸檢測逆向3D建模設計服務-CASAIM

    3D建模
    中科院廣州電子
    發(fā)布于 :2024年08月30日 10:04:53

    微視傳感高性能3D視覺產品亮相2024上海機器視覺

    近日,2024上海機器視覺展在上海新國際博覽中心隆重舉行,微視傳感攜最新的高性能3D視覺產品亮相E2館2121展位,得到廣泛關注,這次展會不僅是微視傳感展示創(chuàng)新技術的舞臺,更是與行業(yè)同
    的頭像 發(fā)表于 08-06 15:15 ?690次閱讀
    微視傳感<b class='flag-5'>高性能</b><b class='flag-5'>3D</b><b class='flag-5'>視覺</b>產品亮相2024上海機器<b class='flag-5'>視覺</b>展

    手機檢測器電路圖 手機檢測器的功能和應用

    手機檢測器是一種通過發(fā)射基波信號,接收來自目標再輻射的2次、3次甚至是更高次的諧波/組合波信號,并對目標手機進行判斷、識別和探測的設備。與定位手機信號的設備相比,手機
    的頭像 發(fā)表于 06-28 17:19 ?1826次閱讀
    手機<b class='flag-5'>檢測器</b>電路圖 手機<b class='flag-5'>檢測器</b>的功能和應用

    蘇州吳中區(qū)多色PCB板元器件3D視覺檢測技術

    3D視覺檢測相較于2D視覺檢測,有其獨特的優(yōu)勢,不受產品表面對比度影響,精確檢出產品形狀,可以測
    的頭像 發(fā)表于 06-14 15:02 ?431次閱讀
    蘇州吳中區(qū)多色PCB板元器件<b class='flag-5'>3D</b><b class='flag-5'>視覺</b><b class='flag-5'>檢測</b>技術

    英倫科技10.1寸裸眼3D平板電腦——革新您的視覺體驗

    英倫科技10.1寸裸眼3D平板電腦是一款集合了前沿科技與卓越性能的產品。它的出現(xiàn),無疑將為我們的生活帶來一場視覺革命。如果您渴望體驗最前沿的科技,享受無與倫比的觀影體驗,那么這款平板電腦將是您的不二之選。立即加入我們,開啟您的裸
    的頭像 發(fā)表于 06-05 11:53 ?422次閱讀
    英倫科技10.1寸裸眼<b class='flag-5'>3D</b>平板電腦——革新您的<b class='flag-5'>視覺</b>體驗

    微波檢測器的原理是什么 微波檢測器的工作原理和用途

    的傳播規(guī)律。微波是一種頻率在300MHz至300GHz之間的電磁波,具有波長較短、穿透力強、抗干擾能力好等特點。微波檢測器利用這些特性,通過接收和處理微波信號,實現(xiàn)對目標物體的檢測和識別。 微波的傳播特性:微波在傳播過程中,
    的頭像 發(fā)表于 05-27 16:09 ?1945次閱讀

    微波檢測器的工作原理 微波檢測器性能參數(shù)

    微波檢測器是一種利用微波技術進行目標檢測的設備。它廣泛應用于軍事、航空、航天、通信、交通等領域。本文將介紹微波檢測器的工作原理、性能參數(shù)以及
    的頭像 發(fā)表于 05-27 15:45 ?1007次閱讀

    硅振蕩替代SiTime助力3D打印機精確的時鐘信號

    硅振蕩替代SiTime助力3D打印機精確的時鐘信號
    的頭像 發(fā)表于 05-23 10:10 ?423次閱讀
    <b class='flag-5'>純</b>硅振蕩<b class='flag-5'>器</b>替代SiTime助力<b class='flag-5'>3D</b>打印機精確的時鐘信號

    Cognex發(fā)布了In-Sight? L38 3D視覺系統(tǒng),為3D檢測設立新標準

    人工智能(AI)驅動的3D視覺系統(tǒng)為自動化制造提供快速部署和可靠的檢測功能。
    的頭像 發(fā)表于 04-15 09:04 ?475次閱讀

    Nullmax提出多相機3D目標檢測新方法QAF2D

    今天上午,計算機視覺領域頂會CVPR公布了最終的論文接收結果,Nullmax感知部門的3D目標檢測研究《Enhancing 3D Objec
    的頭像 發(fā)表于 02-27 16:38 ?1171次閱讀
    Nullmax提出多相機<b class='flag-5'>3D</b><b class='flag-5'>目標</b><b class='flag-5'>檢測</b>新方法QAF2<b class='flag-5'>D</b>

    工業(yè)自動化,3D視覺在五金件上下料中的應用

    3D視覺引導五金件上下料是一種先進的自動化解決方案,結合了3D視覺技術和機器人技術,實現(xiàn)對五金件的高效、準確上下料操作。以下是關于3D
    的頭像 發(fā)表于 02-21 11:38 ?504次閱讀
    工業(yè)自動化,<b class='flag-5'>3D</b><b class='flag-5'>視覺</b>在五金件上下料中的應用

    標注神器!AAAI&apos;24最新:第一個交互式3D目標檢測器

    考慮到3D點云的稀疏性質,iDet3D設計了負點擊模擬 (NCS),通過減少誤報預測來提高準確性。還結合了兩種點擊傳播技術來充分利用用戶交互:(1) 密集點擊引導 (DCG),用于在整個網絡中保留用戶提供的信息;(2) 空間點擊
    的頭像 發(fā)表于 01-16 16:08 ?563次閱讀
    標注神器!AAAI&apos;24最新:第一個交互式<b class='flag-5'>3D</b><b class='flag-5'>目標</b><b class='flag-5'>檢測器</b>!
    主站蜘蛛池模板: 开心久久激情| 江苏电台在线收听| 伊人久久国产免费观看视频| 色播播影院| 胖老太与人牲交BBWBBW高潮| 麻豆精品乱码WWW久久密| 久久天堂视频| 久久久97人妻无码精品蜜桃| 精品一区二区三区四区五区六区| 国产亚洲精品久久久999密臂| 国产午夜一区二区三区免费视频| 国产精品无码麻豆放荡AV| 国产精品亚洲一区二区三区久久| 国产精品久久久久精品A片软件 | couo福利姬图库| 99久久99久久精品| 99国产在线精品视频| FREESEXVIDEO 性老少配| mm625亚洲人成电影网| YELLOW在线观看高清视频免费| swag合集120部| 东京热 百度影音| 国产精品国产三级国产专区53| 国产露脸无码A区久久蘑菇| 国产亚洲视频在线| 解开白丝老师的短裙猛烈进入 | 日本无卡无吗在线| 视频一区二区中文字幕| 忘忧草在线社区WWW日本直播| 午夜影视免费| 亚洲香蕉视频在线播放| 最新国产三级在线不卡视频| GAY东北澡堂激情2022| 国产成人aaa在线视频免费观看| 国产色精品久久人妻无码看片软件| 娇妻归来在线观看免费完整版电影| 久久亚洲电影www电影网| 欧美午夜特黄AAAAAA片| 爽爽影院免费观看| 亚洲野狼综合网站| 91欧美秘密入口|