色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

視差Disparity與深度圖

ml8z_IV_Technol ? 來源:lq ? 2019-02-11 16:32 ? 次閱讀

雙目立體視覺,在百度百科里的解釋是這樣解釋的:雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,它是基于視差原理并利用成像設備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應點間的位置偏差,來獲取物體三維幾何信息的方法。

一 、視差 Disparity與深度圖

提到雙目視覺就不得不提視差圖:雙目立體視覺融合兩只眼睛獲得的圖像并觀察它們之間的差別,使我們可以獲得明顯的深度感,建立特征間的對應關系,將同一空間物理點在不同圖像中的映像點對應起來,這個差別,我們稱作視差(Disparity)圖像。

對于視差的理解自己可以體驗一下:將手指頭放在離眼睛不同距離的位置,并輪換睜、閉左右眼,可以發現手指在不同距離的位置,視覺差也不同,且距離越近,視差越大。

那么提到視差圖,就有深度圖,深度圖像也叫距離影像,是指將從圖像采集器到場景中各點的距離(深度)值作為像素值的圖像。獲取方法有:激光雷達深度成像法、計算機立體視覺成像、坐標測量機法、莫爾條紋法、結構光法。

那么這里引申一下深度圖與點云的區別,點云:當一束激光照射到物體表面時,所反射的激光會攜帶方位、距離等信息。若將激光束按照某種軌跡進行掃描,便會邊掃描邊記錄到反射的激光點信息,由于掃描極為精細,則能夠得到大量的激光點,因而就可形成激光點云。

深度圖像經過坐標轉換可以計算為點云數據;有規則及必要信息的點云數據可以反算為深度圖像。兩者在一定條件下是可以相互轉化的,之前的博客里,有使用PCL庫實現過點云提取深度圖,當然給出相機參數也是可以由深度圖轉為點云的。截圖一個深度圖:

所以深度與視差的關系如下

比如絕對差值法絕對差值圖的計算方法如下:

D=|L-R|

式中,L、R和D分別代表左視圖、右視圖和對應的絕對差值圖的亮度值。絕對差值圖并不是嚴格意義上的視差圖,但是它的計算方法最為簡單,速度快,它給出的結果可以作為參考

那么我們知道視差又有另外一個概念就是UV-disparity mapping,簡單的給個圖表示:

是怎么得到這個結果的呢?原來是統計統計視差的個數,比如V-disparity Map中的第一行分別統計視差為0,1,2,3,4,5的個數,所以得到了V-disparity Map的第一行分別為

0,2,0,1,1,1,那么在真實的圖喜愛那個中得到的結果如下:

那么利用視差可以做很多有用的功能,比如列舉一篇文章

UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios

二 Rays

ray就是連接圖像上一點到光心形成的一條射線。這個也是之后的對極約束的基礎。

那么建立世界坐標系,我們的兩條rays是相交的。如下圖所示,接下來就是利用rays的相交關系,來解釋対極幾何(Epipolar geometry)了。

以上的圖文說明明了對極幾何(Epipolar Geometry)描述的是兩幅視圖之間的內在射影關系,與外部場景無關,只依賴于攝像機內參數和這兩幅試圖之間的的相對姿態。

有以下幾種概念

1. 基線(baseline):直線Oc-Oc'為基線。

2.對極平面束(epipolar pencil):以基線為軸的平面束。

3.對極平面(epipolar plane):任何包含基線的平面都稱為對極平面。

4.對極點(epipole):攝像機的基線與每幅圖像的交點。比如,上圖中的點e和e'。

5. 對極線(epipolar line):對極平面與圖像的交線。比如,上圖中的直線l和l'。

6. 5點共面:點x,x',攝像機中心Oc Oc',空間點X是5點共面的。

7. 極線約束:兩極線上點的對應關系。

說明:

直線l是對應于點x'的極線,直線l'是對應于點x的極線。極線約束是指點x'一定在對應于x的極線l'上,點x一定在對應于x'的極線l上。

根據以上原理就得出了基礎矩陣F和本質矩陣E等,網上有很多資料的

這里直接將推導公式貼出來就好了

本質矩陣E的基本性質:秩為2,且僅依賴于外部參數R和T。其中,P表示世界坐標點矢量,p表示像素點矢量

那么基礎矩陣求法:由于本質矩陣E并不包含相機內參信息,且E是面向相機坐標系的。實際上,我們更感興趣的是在像素坐標系上去研究一個像素點在另一視圖上的對極線,這就需要用到相機內參信息將相機坐標系和像素坐標系聯系起來。假設Pl和Pr是世界坐標值,其對應的像素坐標值為Ql和Qr

相機內參矩陣為M,那么

根據

那么

令基礎矩陣

那么

也就是我們在下圖的第一幅圖找到一個特征點,通過以上対極幾何的知識推導出,該點在第二幅圖位于圖喜的哪個位置

舉個例子,比如kinect

無論是雙目還是kinect都是類似的原理

f=Focal length

b=Baseline

d=Disparity value

ps=Pixel size

D=Depth

Focal length

Baseline

Pixel size

Disparity

備注:

(Pixel size)像素大小是圖像傳感器中單個像素的大小。像素大小用微米表示。由于立體視覺系統使用兩個攝像機,圖像傳感器的像素大小必須相同。隨著像素尺寸的減小,系統的深度范圍增大。

(Disparity value)視差是指在兩個攝像機圖像之間的像素位置的差異。假設立體視覺相機中的左圖像在位置(1,30)具有像素,并且相同的像素在右圖像中的位置(4,30)存在,視差值或差值為(4-1)=3。視差值與上述公式的深度成反比。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1089

    瀏覽量

    40534
  • 立體視覺
    +關注

    關注

    0

    文章

    37

    瀏覽量

    9795
  • 激光雷達
    +關注

    關注

    968

    文章

    4024

    瀏覽量

    190240

原文標題:雙目視覺簡介

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何結合深度學習和深度圖在三個項目中取得有效的成果

    傳統獲取深度圖的方法是利用雙目立體視覺獲取視差信息從而得到環境的深度的。而今天大多使用的深度傳感器則是基于結構光傳感器的原理,通過將已知模式的紅外光投影到環境并解算來實現
    的頭像 發表于 11-01 09:43 ?7783次閱讀

    快速有效提取濃密視差的方法

    快速有效提取濃密視差的方法:采用邊緣匹配和區域相關相結合的辦法,用Gauss-Laplace算子首先對圖像進行運算,提取圖像的邊緣像素,并根據一定約束條件匹配邊緣像素,再將圖像對視作對稱,以相關值
    發表于 06-14 00:21

    深度表數據結構的疑問

    查看器中看到它可以有兩個值:0和1但我找不到任何關于它的文檔哪個是深度單位的默認單位度量?毫米,厘米或米?這是深度單位和視差偏移的允許值的范圍?我可以考慮在觀察者中顯示的那些嗎?夾具是否僅控制
    發表于 11-08 11:09

    如何從深度圖像中找到3或5個中心像素

    嗨,大家好,我試圖從深度圖像中找到幾個中心像素。我正在嘗試實現分割,我需要找到分割對象的距離。這就是我的想法,這將是有效的。當彩色圖像用于分割時,全幀深度圖像將用于找到距離。在我的下面的代碼中。我
    發表于 11-19 14:19

    如何從D435獲取16位深度圖像?

    我從realsense查看器中獲取d435深度相機的數據,當我保存深度圖像的快照時,我在規格中得到8位(1-256)灰度圖像,據說相機給出了16位深度圖片。你知道我怎么能得到16位圖像?以上
    發表于 11-27 14:11

    D435深度圖的焦點在哪里?

    我從英特爾 - RealSense-D400系列 - 數據表.pdf第94頁的圖紙中推測,深度傳感器的中心距攝像機右側(USB側)37.5毫米:根據經驗,我推斷深度圖焦點X在相機的臉后面約32mm
    發表于 12-05 10:52

    基于Dragonboard 410c的kinect應用系列之三——獲取深度圖實例介紹

    上篇文章我們介紹了SimpleOpenNI開發平臺搭建,今天小編繼續為大家講解用kinect繪制深度圖與繪制人體軀干實例具體操作過程!
    發表于 02-21 10:43 ?1462次閱讀
    基于Dragonboard 410c的kinect應用系列之三——獲取<b class='flag-5'>深度圖</b>實例介紹

    基于深度圖像重建Matlab代碼

    本文檔內容介紹了基于深度圖像重建Matlab代碼,供網友參考。
    發表于 09-15 10:03 ?21次下載
    基于<b class='flag-5'>深度圖</b>像重建Matlab代碼

    各向異性擴散深度圖像增強算法

    深度圖像受其測距原理所限,存在邊緣不匹配、無效像素、噪聲等問題,提出一種基于改進的各向異性擴散算法的深度圖像增強方法。首先,校正深度圖像和彩色圖像的位置關系,并根據時間連續性選擇多幀圖像,進行多幀
    發表于 11-25 11:08 ?9次下載
    各向異性擴散<b class='flag-5'>深度圖</b>像增強算法

    小波域分布式深度圖視頻編碼

    針對分布式多視點加深度格式( DMVD)的視頻編碼中深度圖視頻解碼質量問題,提出一種結合予帶層及子帶系數的小波域分布式深度視頻非均勻量化方案,通過給邊緣分配更多比特來提升深度圖的邊緣質
    發表于 12-20 16:34 ?1次下載

    基于Kinect深度圖預處理

    針對應用在機器人三維(3D)場景感知測量中,Kinect深度圖的聯合雙邊濾波(JBF)存在降低原始場景深度信息精確度的制約性問題,提出一種新的預處理算法。首先,通過構建深度圖的測量和采樣模型,得到
    發表于 12-25 16:58 ?0次下載
    基于Kinect<b class='flag-5'>深度圖</b>預處理

    基于主成分分析方向深度梯度直方圖的特征提取算法

    針對立體視覺深度圖特征提取精確度低、復雜度高的問題,提出了一種基于主成分分析方向深度梯度直方圖( PCA-HODG)的特征提取算法。首先,對雙目立體視覺圖像進行視差計算和深度圖提取,獲
    發表于 12-26 14:32 ?0次下載
    基于主成分分析方向<b class='flag-5'>深度</b>梯度直方圖的特征提取算法

    如何使用深度圖進行3D-HEVC魯棒視頻水印算法資料說明

    針對多視點加深度格式的3D視頻中深度圖魯棒性不足的問題,提出了一種基于深度圖的3D魯棒視頻水印算法。首先,將深度圖不重疊的劃分為4x4大小的塊,計算每一塊像素域的均方差,并設置一個閡值
    發表于 04-04 14:54 ?4次下載
    如何使用<b class='flag-5'>深度圖</b>進行3D-HEVC魯棒視頻水印算法資料說明

    雙目視覺的原理和應用

    視差Disparity):視差是指同一物體在兩個圖像中投影點之間的水平距離,它與物體到相機的距離成反比,因此可以用來估計物體的深度視差
    發表于 06-19 10:14 ?2291次閱讀
    雙目視覺的原理和應用

    深度圖像的獲取方法主要有哪些

    ? 今天介紹一下深度圖像的獲取方法主要有哪些,以及這些方法會導致深度圖像中存在什么樣的問題。 在計算機視覺系統中,三維場景信息為圖像分割、目標檢測、物體跟蹤等各類計算機視覺應用提供了更多的可能性,而
    的頭像 發表于 06-25 16:26 ?1268次閱讀
    <b class='flag-5'>深度圖</b>像的獲取方法主要有哪些
    主站蜘蛛池模板: 色拍拍噜噜噜啦啦新网站 | 娇小亚裔被两个黑人 | 人妻少妇久久久久久97人妻 | 少妇高潮久久久久7777 | 久青草国产观看在线视频 | 边摸边吃奶玩乳尖视频 | 亚洲欧美综合中文 | 日日噜噜大屁股熟妇 | 久久九九少妇免费看A片 | 精品99久久久久成人网站 | 99re28久久热在线观看 | 国产AV无码一二三区视频 | 诱咪youmiss| 国产欧美精品一区二区三区-老狼 | 2021国产精品久久久久精品免费网 | 偷拍自偷拍亚洲精品 | 亚洲精品久久久久久蜜臀 | 他揉捏她两乳不停呻吟口述 | 欧美精品熟妇乱 | 国产精品久久久久成人免费 | 羞羞影院午夜男女爽爽影院网站 | 高清无码中文字幕在线观看视频 | 俄罗斯aaaaa一级毛片 | 越南女子杂交内射BBWXZ | 狠狠色狠狠色综合日日2019 | 不知火舞vs精子 | 亚洲无人区码二码三码区别图 | 区产品乱码芒果精品P站在线 | 回复术士人生重启在线观看 | 国产精品久久久久久AV免费不卡 | 人妻换人妻AA视频 | 99在线这精品视频 | 最近更新2019中文字幕免费 | 国产午夜高潮熟女精品AV | asian极品呦女xx农村 | 亚洲黄色片免费看 | 久久涩视频| 性女传奇 快播 | 情浓野战台湾三级 | 久久AAAA片一区二区 | 十分钟免费看完整视频 |