色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于單目圖像的深度估計算法,大幅度提升基于單目圖像深度估計的精度

商湯科技SenseTime ? 來源:未知 ? 作者:李倩 ? 2018-06-04 15:46 ? 次閱讀

基于視覺的自動駕駛系統需要基于單目攝像頭獲取的圖像,判斷當前車輛與周圍車輛、行人和障礙物的距離,距離判斷的精度對自動駕駛系統的安全性有著決定性的影響,商湯科技在CVPR 2018發表亮點報告(Spotlight)論文,提出基于單目圖像的深度估計算法,大幅度提升基于單目圖像深度估計的精度,進一步提升自動駕駛系統的安全性。該論文由商湯科技見習研究員羅越在研究院研究員任思捷指導下完成。本文為商湯科技CVPR 2018論文解讀第5期。

簡介

基于單目圖像的深度估計算法具有方便部署、計算成本低等優點,受到了學術界和工業界日益增長的關注。現有的單目深度估計方法通常利用單一視角的圖像數據作為輸入,直接預測圖像中每個像素對應的深度值,這種解決方案導致現有方法通常需要大量的深度標注數據,而這類數據通常需要較高的采集成本。近年來的改進思路主要是在訓練過程中引入隱式的幾何約束,通過幾何變換,使用一側攝像機圖像(以下稱右圖)監督基于另一側攝像機圖像(以下稱左圖)預測的深度圖,從而減少對數據的依賴。但這類方法在測試過程中仍然缺乏顯式的幾何約束。為了解決上述問題,本文提出單視圖雙目匹配模型(Single View Stereo Matching, SVS),該模型把單目深度估計分解為兩個子過程,視圖合成過程和雙目匹配過程,其算法框架如圖1所示。

圖1:

單視圖雙目匹配模型的示意圖

通過這樣的分解,使得提出的模型有如下兩個優點:

極大地減少深度標注數據的依賴;

在測試階段顯式地引入幾何約束。

實驗證明,本文提出的模型僅用少量的深度標注數據就可以在KITTI數據集上超過之前的所有單目深度估計方法,并首次僅靠單目圖像數據就超過了雙目匹配算法Block Matching的深度估計精度。

SVS模型

現有基于深度學習的單目深度估計方法,通常把CNN作為黑盒使用,學習圖像塊至深度值的直接映射,這類方法完全依賴高級語義信息作為預測深度的依據,盡管有些方法在損失函數上引入一些特殊的約束條件,學習這樣的語義信息仍然是非常困難的。另一方面,即使這樣的映射能夠被成功訓練,算法通常也需要大量帶深度值標簽的真實數據,而這類數據的采集成本非常高且耗時,極大的限制了這類技術的適用場景。

基于上述分析,本文方法提出了一種新穎的面向單目深度估計的算法框架,把單目深度估計分解為兩個過程,即視圖合成過程和雙目匹配過程。模型的主要設計思路在于:

把雙目深度估計模型中有效的幾何約束顯式地結合到單目深度估計模型中,提高模型的可解釋性;

減少使用難以采集的真實深度數據,從而擴大模型的適用范圍;

整個模型以端到端的的方式訓練,從而提升深度估計準確性。

模型的視圖合成過程由視圖合成網絡完成,輸入一張左圖,網絡合成該圖像對應的右圖;而雙目匹配過程由雙目匹配網絡完成,接收左圖以及合成的右圖,預測出左圖每一個像素的視差值,詳細的網絡結構(如圖2所示)。

圖2:

算法網絡結構圖

上半部分網絡對應視圖合成網絡

下半部分網絡對應雙目匹配網絡

視圖合成網絡:

一般情況下,左圖中的像素均可以在右圖中找到匹配的像素,因此可以首先把左圖平移多個不同像素距離,得到多張不同的圖片,再使用神經網絡預測組合系數,把多張平移后的左圖和預測的系數組合得到預測的右圖。具體地,視圖合成網絡基于Deep3D [1] 模型,圖2 中的上半部分展示了視圖合成網絡的示意圖。輸入一張左圖,首先主干網絡對其提取不同尺度的特征,再經過上采樣層把不同尺度的特征統一至同一個尺寸,然后經過累加操作融合成輸出特征并預測出概率視差圖,最后經過選擇模塊(selection module)結合概率視差圖以及輸入的左圖,得到預測的右圖。本文采用L1 損失函數訓練這個網絡。

雙目匹配網絡:

雙目匹配需要把左圖像素和右圖中其對應像素進行匹配,再由匹配的像素差算出左圖像素對應的深度,而之前的單目深度估計方法均不能顯式引入類似的幾何約束。由于深度學習模型的引入,雙目匹配算法的性能近年來得到了極大的提升。本文的雙目匹配網絡基于DispNetC [2] 模型, 該模型目前在KITTI雙目匹配數據集上能夠達到理想的精度,其網絡如圖2的下半部分所示,左圖以及合成的右圖經過幾個卷積層之后,得到的特征會經過1D相關操作(correlation)。相關操作被證明在雙目匹配深度學習算法中起關鍵性的作用,基于相關操作,本文方法顯式地引入幾何約束;其得到的特征圖和左圖提取到的特征圖進行拼接作為編碼-解碼網絡(encoder-decoder network)的輸入,并最終預測視差圖。該網絡的訓練也同樣使用L1損失函數。

實驗結果

本文在KITTI公開數據集上對提出的模型進行驗證,遵循Eigen等人[3]的實驗設置,把697張圖片作為測試圖片,其余的數據作為訓練圖片,從定量和定性兩方面對所提出的模型進行驗證。

數值結果

表1總結了本文模型和其他現有方法結果的對比,可以看出,本文模型在大多數指標上均達到世界領先水平。其中,就ARD指標來說,提出的模型比之前最好的方法誤差減小16.8%(0.094 vs. 0.113);表中同時也顯示,經過端到端優化之后,SVS模型的性能能夠進一步得到提升。

表1:

KITTI數據集上SVS模型和其他方法的數值結果

表中加粗表示性能最好的結果

可視化結果對比

圖3顯示了在KITTI Eigen測試集上的深度估計結果的可視化效果,從圖中可以看出本文提出的SVS模型能夠得到更加精準的深度圖。

圖3:

在KITTI Eigen測試集上的深度估計結果的可視化

提出的SVS模型能夠得到更加準確的深度圖

在其他數據集上結果的可視化

為了驗證SVS模型在其他數據集上的泛化能力,本文將在KITTI數據集上訓練好的SVS模型直接應用至Cityscape和 Make3D數據集上,結果可視化效果分別展示在圖4及圖5中。可以看到即使在訓練數據集中沒有出現過的場景,本文方法仍然可以得到合理準確的深度估計結果,證實了本文方法較為強大的泛化能力。

圖4:

在Cityscape數據集上深度估計結果的可視化

SVS模型能夠生成理想的深度圖

圖5:

在Make3D數據集上深度估計結果的可視化

本文提出的SVS模型可以得到較為準確的結果

與雙目匹配算法Block-Matching的對比:

為了進一步確認目前性能最優異的單目深度估計方法和雙目深度估計方法的差距,本文在KITTI 2015雙目匹配測試集上對比了SVS模型與現有最優性能的單目深度估計方法以及雙目匹配Block-Matching方法 (OCV-BM),相關結果總結在表2中,本文的SVS模型首次超越了雙目匹配Block-Matching算法。

表2:

在KITTI 2015雙目匹配測試集上的數值結果

技術潛在應用

單目深度估計對比雙目深度估計具有方便部署、成本低等優點,在很多領域有著豐富的潛在應用場景,如三維重建、增強現實等。

a) 三維重建

b) 增強現實

結論

本文提出一種簡單而有效的單目深度估計模型——單視圖雙目匹配(SVS)。該模型通過把單目深度估計問題分解為兩個子問題,即視圖合成問題和雙目匹配問題,避免把神經網絡模型直接作為黑盒使用,提高了模型的可解釋性。同時,為了更好的解決這兩個子問題,顯式地把幾何變換編碼到兩個子網絡中,提升網絡模型的表達能力。實驗結果表明,該方法僅使用少量帶深度標簽的訓練數據,就能夠超越所有之前的單目深度估計方法,并且首次僅使用單目數據就超過雙目匹配算法Block-Matching的性能,在眾多領域中有著豐富的潛在應用。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1091

    瀏覽量

    40686
  • 深度學習
    +關注

    關注

    73

    文章

    5527

    瀏覽量

    121893
  • 商湯科技
    +關注

    關注

    8

    文章

    527

    瀏覽量

    36332

原文標題:CVPR 2018 | 商湯科技Spotlight論文詳解:單目深度估計技術

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    攝像頭和FPGA的ADAS產品原型系統

    。其中基于深度學習的圖像處理算法,對硬件的計算性能、功耗、以及成本把控都會提出更高要求。為了減輕對硬件壓力,算法本身的優化將成為重中之重。本
    發表于 01-06 18:09

    基于深度估計的紅外圖像彩色化方法_戈曼

    基于深度估計的紅外圖像彩色化方法_戈曼
    發表于 03-17 10:13 ?0次下載

    UC Berkeley大學的研究人員們利用深度姿態估計深度學習技術

    器,從圖像中預測動作。雖然在訓練該估計器的時候需要標注動作,不過一旦訓練完成,估計器在應用到新圖片上時就無需再次訓練了。
    的頭像 發表于 10-12 09:06 ?2904次閱讀

    基于多孔卷積神經網絡的圖像深度估計模型

    針對在傳統機器學習方法下單幅圖像深度估計效果差、深度值獲取不準確的問題,提出了一種基于多孔卷積神經網絡(ACNN)的深度
    發表于 09-29 16:20 ?5次下載
    基于多孔卷積神經網絡的<b class='flag-5'>圖像</b><b class='flag-5'>深度</b><b class='flag-5'>估計</b>模型

    結合雙目圖像深度信息跨層次特征的語義分割模型

    為改善圖像語義分割網絡對圖像深度變化區域的分割效果,提出一種結合雙目圖像
    發表于 03-19 14:35 ?21次下載
    結合雙目<b class='flag-5'>圖像</b>的<b class='flag-5'>深度</b>信息跨層次特征的語義分割模型

    采用自監督CNN進行圖像深度估計的方法

    為了提高利用深度神經網絡預測圖像深度信息的精確度,提出了一種采用自監督卷積神經網絡進行圖像
    發表于 04-27 16:06 ?13次下載
    采用自監督CNN進行<b class='flag-5'>單</b><b class='flag-5'>圖像</b><b class='flag-5'>深度</b><b class='flag-5'>估計</b>的方法

    基于深度學習的二維人體姿態估計算法

    ,更能充分地提取圖像信息,獲取更具有魯棒性的特征,因此基于深度學習的方法已成為二維人體姿態估計算法研究的主流方向。然而,深度學習尚在發展中,仍存在訓練規模大等問題,研究者們主要從設絡以
    發表于 04-27 16:16 ?7次下載
    基于<b class='flag-5'>深度</b>學習的二維人體姿態<b class='flag-5'>估計算法</b>

    密集SLAM的概率體積融合概述

    我們提出了一種利用深度密集 SLAM 和快速不確定性傳播從圖像重建 3D 場景的新方法。所提出的方法能夠密集、準確、實時地 3D 重建場景,同時對來自密集
    的頭像 發表于 01-30 11:34 ?771次閱讀

    立體視覺:我用相機求了個體積!

    一般而言,是無法依靠自身來完成測量的,有企業選擇讓相機動起來,但是一旦動起來實際上也是雙目,不再是
    的頭像 發表于 03-01 11:19 ?1346次閱讀

    一種用于自監督深度估計的輕量級CNN和Transformer架構

    自監督深度估計不需要地面實況訓練,近年來受到廣泛關注。設計輕量級但有效的模型非常有意義,這樣它們就可以部署在邊緣設備上。
    的頭像 發表于 03-14 17:54 ?2409次閱讀

    介紹第一個結合相對和絕對深度的多模態深度估計網絡

    深度估計分為兩個派系,metric depth estimation(度量深度估計,也稱絕對
    的頭像 發表于 03-21 18:01 ?6451次閱讀

    使用python和opencv實現攝像機測距

    我的論文方向目前是使用攝像頭實現機器人對人的跟隨,首先攝像頭與kinect等深度攝像頭最大的區別是無法有效獲取
    的頭像 發表于 07-03 10:01 ?3291次閱讀
    使用python和opencv實現<b class='flag-5'>單</b><b class='flag-5'>目</b>攝像機測距

    一種利用幾何信息的自監督深度估計框架

    本文方法是一種自監督的深度估計框架,名為GasMono,專門設計用于室內場景。本方法通過應用多視圖幾何的方式解決了室內場景中幀間大旋轉和低紋理導致自監督
    發表于 11-06 11:47 ?511次閱讀
    一種利用幾何信息的自監督<b class='flag-5'>單</b><b class='flag-5'>目</b><b class='flag-5'>深度</b><b class='flag-5'>估計</b>框架

    動態場景下的自監督深度估計方案

    自監督深度估計的訓練可以在大量無標簽視頻序列來進行,訓練集獲取很方便。但問題是,實際采集的視頻序列往往會有很多動態物體,而自監督訓練本身就是基于靜態環境假設,動態環境下會失效。
    發表于 11-28 09:21 ?873次閱讀
    動態場景下的自監督<b class='flag-5'>單</b><b class='flag-5'>目</b><b class='flag-5'>深度</b><b class='flag-5'>估計</b>方案

    深度估計開源方案分享

    可以看一下深度估計效果,這個深度圖的分辨率是真的高,物體邊界分割的非常干凈!這里也推薦工坊推出的新課程《
    的頭像 發表于 12-17 10:01 ?962次閱讀
    <b class='flag-5'>單</b><b class='flag-5'>目</b><b class='flag-5'>深度</b><b class='flag-5'>估計</b>開源方案分享
    主站蜘蛛池模板: 69国产精品成人无码视频 | 在线AV国产传媒18精品免费 | 国产精品午夜福利在线观看 | 蜜桃传媒一区二区亚洲AV | 在线视频中文字幕 | 日本久久免费大片 | 国产色综合久久无码有码 | 嘟嘟嘟影院免费观看视频 | 成人女人A级毛片免费软件 成人免费在线视频 | 久久4k岛国高清一区二区 | 亚洲精品乱码久久久久久中文字幕 | 中文字幕亚洲第一 | 精品三级久久久久电影网1 精品日韩视频 | 农民工老头在出租屋嫖老熟女 | 入禽太深免费视频10 | 在线伦理电影网 | 快播理伦片| 色橹| 野花韩国高清完整版在线观看5 | 日本 稀土矿 | 日韩中文欧美在线视频 | A级超碰视频在线观看 | 国产成人小视频 | 又硬又粗又大一区二区三区视频 | 亚洲精品乱码久久久久久直播 | 丰满五十六十老熟女HD60 | 精品无码无人网站免费视频 | 日本乱子伦一区二区三区 | 欧美日韩高清一区 | 精品国产国产精2020久久日 | 直插下身完整的欧美版 | 绝色娇嫩美人妻老师 | 亚洲日本欧美日韩高观看 | 国产成人免费a在线资源 | 亚洲一区在线播放 | oldgrand欧洲老妇人 | 暖暖日本 在线 高清 | 江苏电台在线收听 | 桃花免费高清在线观看 | 亲爱的妈妈6韩国电影免费观看 | 一一本之道高清手机在线观看 |