色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視差Disparity與深度圖

ml8z_IV_Technol ? 來(lái)源:lq ? 2019-02-11 16:32 ? 次閱讀

雙目立體視覺,在百度百科里的解釋是這樣解釋的:雙目立體視覺(Binocular Stereo Vision)是機(jī)器視覺的一種重要形式,它是基于視差原理并利用成像設(shè)備從不同的位置獲取被測(cè)物體的兩幅圖像,通過計(jì)算圖像對(duì)應(yīng)點(diǎn)間的位置偏差,來(lái)獲取物體三維幾何信息的方法。

一 、視差 Disparity與深度圖

提到雙目視覺就不得不提視差圖:雙目立體視覺融合兩只眼睛獲得的圖像并觀察它們之間的差別,使我們可以獲得明顯的深度感,建立特征間的對(duì)應(yīng)關(guān)系,將同一空間物理點(diǎn)在不同圖像中的映像點(diǎn)對(duì)應(yīng)起來(lái),這個(gè)差別,我們稱作視差(Disparity)圖像。

對(duì)于視差的理解自己可以體驗(yàn)一下:將手指頭放在離眼睛不同距離的位置,并輪換睜、閉左右眼,可以發(fā)現(xiàn)手指在不同距離的位置,視覺差也不同,且距離越近,視差越大。

那么提到視差圖,就有深度圖,深度圖像也叫距離影像,是指將從圖像采集器到場(chǎng)景中各點(diǎn)的距離(深度)值作為像素值的圖像。獲取方法有:激光雷達(dá)深度成像法、計(jì)算機(jī)立體視覺成像、坐標(biāo)測(cè)量機(jī)法、莫爾條紋法、結(jié)構(gòu)光法。

那么這里引申一下深度圖與點(diǎn)云的區(qū)別,點(diǎn)云:當(dāng)一束激光照射到物體表面時(shí),所反射的激光會(huì)攜帶方位、距離等信息。若將激光束按照某種軌跡進(jìn)行掃描,便會(huì)邊掃描邊記錄到反射的激光點(diǎn)信息,由于掃描極為精細(xì),則能夠得到大量的激光點(diǎn),因而就可形成激光點(diǎn)云。

深度圖像經(jīng)過坐標(biāo)轉(zhuǎn)換可以計(jì)算為點(diǎn)云數(shù)據(jù);有規(guī)則及必要信息的點(diǎn)云數(shù)據(jù)可以反算為深度圖像。兩者在一定條件下是可以相互轉(zhuǎn)化的,之前的博客里,有使用PCL庫(kù)實(shí)現(xiàn)過點(diǎn)云提取深度圖,當(dāng)然給出相機(jī)參數(shù)也是可以由深度圖轉(zhuǎn)為點(diǎn)云的。截圖一個(gè)深度圖:

所以深度與視差的關(guān)系如下

比如絕對(duì)差值法絕對(duì)差值圖的計(jì)算方法如下:

D=|L-R|

式中,L、R和D分別代表左視圖、右視圖和對(duì)應(yīng)的絕對(duì)差值圖的亮度值。絕對(duì)差值圖并不是嚴(yán)格意義上的視差圖,但是它的計(jì)算方法最為簡(jiǎn)單,速度快,它給出的結(jié)果可以作為參考

那么我們知道視差又有另外一個(gè)概念就是UV-disparity mapping,簡(jiǎn)單的給個(gè)圖表示:

是怎么得到這個(gè)結(jié)果的呢?原來(lái)是統(tǒng)計(jì)統(tǒng)計(jì)視差的個(gè)數(shù),比如V-disparity Map中的第一行分別統(tǒng)計(jì)視差為0,1,2,3,4,5的個(gè)數(shù),所以得到了V-disparity Map的第一行分別為

0,2,0,1,1,1,那么在真實(shí)的圖喜愛那個(gè)中得到的結(jié)果如下:

那么利用視差可以做很多有用的功能,比如列舉一篇文章

UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios

二 Rays

ray就是連接圖像上一點(diǎn)到光心形成的一條射線。這個(gè)也是之后的對(duì)極約束的基礎(chǔ)。

那么建立世界坐標(biāo)系,我們的兩條rays是相交的。如下圖所示,接下來(lái)就是利用rays的相交關(guān)系,來(lái)解釋対極幾何(Epipolar geometry)了。

以上的圖文說(shuō)明明了對(duì)極幾何(Epipolar Geometry)描述的是兩幅視圖之間的內(nèi)在射影關(guān)系,與外部場(chǎng)景無(wú)關(guān),只依賴于攝像機(jī)內(nèi)參數(shù)和這兩幅試圖之間的的相對(duì)姿態(tài)。

有以下幾種概念

1. 基線(baseline):直線Oc-Oc'為基線。

2.對(duì)極平面束(epipolar pencil):以基線為軸的平面束。

3.對(duì)極平面(epipolar plane):任何包含基線的平面都稱為對(duì)極平面。

4.對(duì)極點(diǎn)(epipole):攝像機(jī)的基線與每幅圖像的交點(diǎn)。比如,上圖中的點(diǎn)e和e'。

5. 對(duì)極線(epipolar line):對(duì)極平面與圖像的交線。比如,上圖中的直線l和l'。

6. 5點(diǎn)共面:點(diǎn)x,x',攝像機(jī)中心Oc Oc',空間點(diǎn)X是5點(diǎn)共面的。

7. 極線約束:兩極線上點(diǎn)的對(duì)應(yīng)關(guān)系。

說(shuō)明:

直線l是對(duì)應(yīng)于點(diǎn)x'的極線,直線l'是對(duì)應(yīng)于點(diǎn)x的極線。極線約束是指點(diǎn)x'一定在對(duì)應(yīng)于x的極線l'上,點(diǎn)x一定在對(duì)應(yīng)于x'的極線l上。

根據(jù)以上原理就得出了基礎(chǔ)矩陣F和本質(zhì)矩陣E等,網(wǎng)上有很多資料的

這里直接將推導(dǎo)公式貼出來(lái)就好了

本質(zhì)矩陣E的基本性質(zhì):秩為2,且僅依賴于外部參數(shù)R和T。其中,P表示世界坐標(biāo)點(diǎn)矢量,p表示像素點(diǎn)矢量

那么基礎(chǔ)矩陣求法:由于本質(zhì)矩陣E并不包含相機(jī)內(nèi)參信息,且E是面向相機(jī)坐標(biāo)系的。實(shí)際上,我們更感興趣的是在像素坐標(biāo)系上去研究一個(gè)像素點(diǎn)在另一視圖上的對(duì)極線,這就需要用到相機(jī)內(nèi)參信息將相機(jī)坐標(biāo)系和像素坐標(biāo)系聯(lián)系起來(lái)。假設(shè)Pl和Pr是世界坐標(biāo)值,其對(duì)應(yīng)的像素坐標(biāo)值為Ql和Qr

相機(jī)內(nèi)參矩陣為M,那么

根據(jù)

那么

令基礎(chǔ)矩陣

那么

也就是我們?cè)谙聢D的第一幅圖找到一個(gè)特征點(diǎn),通過以上対極幾何的知識(shí)推導(dǎo)出,該點(diǎn)在第二幅圖位于圖喜的哪個(gè)位置

舉個(gè)例子,比如kinect

無(wú)論是雙目還是kinect都是類似的原理

f=Focal length

b=Baseline

d=Disparity value

ps=Pixel size

D=Depth

Focal length

Baseline

Pixel size

Disparity

備注:

(Pixel size)像素大小是圖像傳感器中單個(gè)像素的大小。像素大小用微米表示。由于立體視覺系統(tǒng)使用兩個(gè)攝像機(jī),圖像傳感器的像素大小必須相同。隨著像素尺寸的減小,系統(tǒng)的深度范圍增大。

(Disparity value)視差是指在兩個(gè)攝像機(jī)圖像之間的像素位置的差異。假設(shè)立體視覺相機(jī)中的左圖像在位置(1,30)具有像素,并且相同的像素在右圖像中的位置(4,30)存在,視差值或差值為(4-1)=3。視差值與上述公式的深度成反比。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1091

    瀏覽量

    40874
  • 立體視覺
    +關(guān)注

    關(guān)注

    0

    文章

    37

    瀏覽量

    9878
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    970

    文章

    4129

    瀏覽量

    191495

原文標(biāo)題:雙目視覺簡(jiǎn)介

文章出處:【微信號(hào):IV_Technology,微信公眾號(hào):智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 1人收藏
  • jf_762134691
  • 泛舟爱海1
  • 起风了ya1

評(píng)論

相關(guān)推薦

如何結(jié)合深度學(xué)習(xí)和深度圖在三個(gè)項(xiàng)目中取得有效的成果

傳統(tǒng)獲取深度圖的方法是利用雙目立體視覺獲取視差信息從而得到環(huán)境的深度的。而今天大多使用的深度傳感器則是基于結(jié)構(gòu)光傳感器的原理,通過將已知模式的紅外光投影到環(huán)境并解算來(lái)實(shí)現(xiàn)
的頭像 發(fā)表于 11-01 09:43 ?7867次閱讀

快速有效提取濃密視差的方法

快速有效提取濃密視差的方法:采用邊緣匹配和區(qū)域相關(guān)相結(jié)合的辦法,用Gauss-Laplace算子首先對(duì)圖像進(jìn)行運(yùn)算,提取圖像的邊緣像素,并根據(jù)一定約束條件匹配邊緣像素,再將圖像對(duì)視作對(duì)稱,以相關(guān)值
發(fā)表于 06-14 00:21

深度表數(shù)據(jù)結(jié)構(gòu)的疑問

查看器中看到它可以有兩個(gè)值:0和1但我找不到任何關(guān)于它的文檔哪個(gè)是深度單位的默認(rèn)單位度量?毫米,厘米或米?這是深度單位和視差偏移的允許值的范圍?我可以考慮在觀察者中顯示的那些嗎?夾具是否僅控制
發(fā)表于 11-08 11:09

如何從深度圖像中找到3或5個(gè)中心像素

嗨,大家好,我試圖從深度圖像中找到幾個(gè)中心像素。我正在嘗試實(shí)現(xiàn)分割,我需要找到分割對(duì)象的距離。這就是我的想法,這將是有效的。當(dāng)彩色圖像用于分割時(shí),全幀深度圖像將用于找到距離。在我的下面的代碼中。我
發(fā)表于 11-19 14:19

如何從D435獲取16位深度圖像?

我從realsense查看器中獲取d435深度相機(jī)的數(shù)據(jù),當(dāng)我保存深度圖像的快照時(shí),我在規(guī)格中得到8位(1-256)灰度圖像,據(jù)說(shuō)相機(jī)給出了16位深度圖片。你知道我怎么能得到16位圖像?以上
發(fā)表于 11-27 14:11

D435深度圖的焦點(diǎn)在哪里?

我從英特爾 - RealSense-D400系列 - 數(shù)據(jù)表.pdf第94頁(yè)的圖紙中推測(cè),深度傳感器的中心距攝像機(jī)右側(cè)(USB側(cè))37.5毫米:根據(jù)經(jīng)驗(yàn),我推斷深度圖焦點(diǎn)X在相機(jī)的臉后面約32mm
發(fā)表于 12-05 10:52

基于Dragonboard 410c的kinect應(yīng)用系列之三——獲取深度圖實(shí)例介紹

上篇文章我們介紹了SimpleOpenNI開發(fā)平臺(tái)搭建,今天小編繼續(xù)為大家講解用kinect繪制深度圖與繪制人體軀干實(shí)例具體操作過程!
發(fā)表于 02-21 10:43 ?1531次閱讀
基于Dragonboard 410c的kinect應(yīng)用系列之三——獲取<b class='flag-5'>深度圖</b>實(shí)例介紹

基于深度圖像重建Matlab代碼

本文檔內(nèi)容介紹了基于深度圖像重建Matlab代碼,供網(wǎng)友參考。
發(fā)表于 09-15 10:03 ?21次下載
基于<b class='flag-5'>深度圖</b>像重建Matlab代碼

各向異性擴(kuò)散深度圖像增強(qiáng)算法

深度圖像受其測(cè)距原理所限,存在邊緣不匹配、無(wú)效像素、噪聲等問題,提出一種基于改進(jìn)的各向異性擴(kuò)散算法的深度圖像增強(qiáng)方法。首先,校正深度圖像和彩色圖像的位置關(guān)系,并根據(jù)時(shí)間連續(xù)性選擇多幀圖像,進(jìn)行多幀
發(fā)表于 11-25 11:08 ?9次下載
各向異性擴(kuò)散<b class='flag-5'>深度圖</b>像增強(qiáng)算法

小波域分布式深度圖視頻編碼

針對(duì)分布式多視點(diǎn)加深度格式( DMVD)的視頻編碼中深度圖視頻解碼質(zhì)量問題,提出一種結(jié)合予帶層及子帶系數(shù)的小波域分布式深度視頻非均勻量化方案,通過給邊緣分配更多比特來(lái)提升深度圖的邊緣質(zhì)
發(fā)表于 12-20 16:34 ?1次下載

基于Kinect深度圖預(yù)處理

針對(duì)應(yīng)用在機(jī)器人三維(3D)場(chǎng)景感知測(cè)量中,Kinect深度圖的聯(lián)合雙邊濾波(JBF)存在降低原始場(chǎng)景深度信息精確度的制約性問題,提出一種新的預(yù)處理算法。首先,通過構(gòu)建深度圖的測(cè)量和采樣模型,得到
發(fā)表于 12-25 16:58 ?0次下載
基于Kinect<b class='flag-5'>深度圖</b>預(yù)處理

基于主成分分析方向深度梯度直方圖的特征提取算法

針對(duì)立體視覺深度圖特征提取精確度低、復(fù)雜度高的問題,提出了一種基于主成分分析方向深度梯度直方圖( PCA-HODG)的特征提取算法。首先,對(duì)雙目立體視覺圖像進(jìn)行視差計(jì)算和深度圖提取,獲
發(fā)表于 12-26 14:32 ?0次下載
基于主成分分析方向<b class='flag-5'>深度</b>梯度直方圖的特征提取算法

如何使用深度圖進(jìn)行3D-HEVC魯棒視頻水印算法資料說(shuō)明

針對(duì)多視點(diǎn)加深度格式的3D視頻中深度圖魯棒性不足的問題,提出了一種基于深度圖的3D魯棒視頻水印算法。首先,將深度圖不重疊的劃分為4x4大小的塊,計(jì)算每一塊像素域的均方差,并設(shè)置一個(gè)閡值
發(fā)表于 04-04 14:54 ?4次下載
如何使用<b class='flag-5'>深度圖</b>進(jìn)行3D-HEVC魯棒視頻水印算法資料說(shuō)明

雙目視覺的原理和應(yīng)用

視差Disparity):視差是指同一物體在兩個(gè)圖像中投影點(diǎn)之間的水平距離,它與物體到相機(jī)的距離成反比,因此可以用來(lái)估計(jì)物體的深度視差
發(fā)表于 06-19 10:14 ?2619次閱讀
雙目視覺的原理和應(yīng)用

深度圖像的獲取方法主要有哪些

? 今天介紹一下深度圖像的獲取方法主要有哪些,以及這些方法會(huì)導(dǎo)致深度圖像中存在什么樣的問題。 在計(jì)算機(jī)視覺系統(tǒng)中,三維場(chǎng)景信息為圖像分割、目標(biāo)檢測(cè)、物體跟蹤等各類計(jì)算機(jī)視覺應(yīng)用提供了更多的可能性,而
的頭像 發(fā)表于 06-25 16:26 ?1480次閱讀
<b class='flag-5'>深度圖</b>像的獲取方法主要有哪些
主站蜘蛛池模板: 我要干av| 国产成人精品免费视频软件 | 手机伊在人线香蕉2 | 999人在线精品播放视频 | 日日噜噜噜噜夜夜爽亚洲精品 | 久久视频这有精品63在线国产 | 国产在线精品亚洲视频在线 | 伊人久久影视 | 帅哥操帅哥 | 亚洲国产成人精品无码区5566 | 欧美一区二区视频高清专区 | 偷拍自偷拍亚洲精品 | 伊人影院久久 | 吃春药后的女教师 | 91区国产福利在线观看午夜 | 国产偷国产偷亚洲高清人乐享 | 四虎免费影院 | 亲胸揉胸膜下刺激视频网站APP | 欧美人与禽ZOZO性伦交视频 | AV无码国产精品午夜A片麻豆 | 欧美亚洲国产专区在线 | 亚洲午夜AV久久久精品影院色戒 | 精品国产自在自线官方 | 亚洲嫩草AV永久无码精品无码 | 国产区精品综合在线 | 成年人免费观看视频网站 | 男人脱女人衣服吃奶视频 | 爆操日本美女 | 性夜a爽黄爽 | 美女被爆插 | 国产午夜高潮熟女精品AV | 国产午夜视频在永久在线观看 | 97精品国产亚洲AV超碰 | 亚洲色视在线观看视频 | 久久国产露脸老熟女熟69 | 美女内射少妇一区二区四区 | 久久99re热在线观看视频 | 69日本人XXXX护士HD | 亚洲欧美激情精品一区二区 | 一个人在线观看免费高清视频 | YY8848高清私人影院 |

電子發(fā)燒友

中國(guó)電子工程師最喜歡的網(wǎng)站

  • 2931785位工程師會(huì)員交流學(xué)習(xí)
  • 獲取您個(gè)性化的科技前沿技術(shù)信息
  • 參加活動(dòng)獲取豐厚的禮品