色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從雙目標(biāo)定到立體匹配:Python實(shí)踐指南

3D視覺(jué)工坊 ? 來(lái)源:3D視覺(jué)工坊 ? 2023-06-08 16:28 ? 次閱讀

立體匹配是計(jì)算機(jī)視覺(jué)中的一個(gè)重要領(lǐng)域,旨在將從不同角度拍攝的圖像匹配起來(lái),以創(chuàng)建類似人類視覺(jué)的3D效果。實(shí)現(xiàn)立體匹配的過(guò)程需要涉及許多步驟,包括雙目標(biāo)定、立體校正、視差計(jì)算等。在這篇文章中,將介紹如何使用Python實(shí)現(xiàn)立體匹配的基本步驟和技巧。

f03103a6-05d5-11ee-962d-dac502259ad0.png

下面的代碼實(shí)現(xiàn)了從相機(jī)標(biāo)定到立體匹配的完整流程,下面將分別介紹各個(gè)函數(shù)的參數(shù)和輸出。

標(biāo)定

首先,該程序需要用到以下庫(kù):

numpy
cv2(OpenCV)
os

在程序開(kāi)頭,需要定義一些變量來(lái)存儲(chǔ)標(biāo)定圖片的路徑、棋盤格參數(shù)、角點(diǎn)坐標(biāo)等等。具體介紹如下:

path_left="./data/left/"
path_right="./data/right/"

path_left和path_right是左右相機(jī)標(biāo)定圖片文件夾的路徑。

CHESSBOARD_SIZE=(8,11)
CHESSBOARD_SQUARE_SIZE=15#mm

CHESSBOARD_SIZE是棋盤格內(nèi)部角點(diǎn)的行列數(shù),CHESSBOARD_SQUARE_SIZE是棋盤格內(nèi)部每個(gè)小正方形的大小(單位為毫米)。

objp=np.zeros((CHESSBOARD_SIZE[0]*CHESSBOARD_SIZE[1],3),np.float32)
objp[:,:2]=np.mgrid[0:CHESSBOARD_SIZE[0],0:CHESSBOARD_SIZE[1]].T.reshape(-1,2)*CHESSBOARD_SQUARE_SIZE

objp是物理坐標(biāo)系下每個(gè)角點(diǎn)的三維坐標(biāo),即棋盤格的位置。該變量在后續(xù)的相機(jī)標(biāo)定以及立體匹配中都會(huì)被用到。

criteria=(cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER,30,0.001)

criteria是角點(diǎn)檢測(cè)的終止準(zhǔn)則,一般都使用這個(gè)默認(rèn)值。

img_list_left=sorted(os.listdir(path_left))
img_list_right=sorted(os.listdir(path_right))

img_list_left和img_list_right分別是左、右圖像的文件名列表,使用os.listdir()函數(shù)獲取。

obj_points=[]
img_points_left=[]
img_points_right=[]

obj_points、img_points_left和img_points_right分別是存儲(chǔ)每個(gè)標(biāo)定圖片對(duì)應(yīng)的物理坐標(biāo)系下的角點(diǎn)坐標(biāo)、左相機(jī)的像素坐標(biāo)和右相機(jī)的像素坐標(biāo)。這些變量同樣在后續(xù)的相機(jī)標(biāo)定和立體匹配中用到。

接下來(lái),程序讀取標(biāo)定圖片并檢測(cè)角點(diǎn)。對(duì)于每幅圖片,程序執(zhí)行以下操作:

img_l=cv2.imread(path_left+img_list_left[i])
img_r=cv2.imread(path_right+img_list_right[i])
gray_l=cv2.cvtColor(img_l,cv2.COLOR_BGR2GRAY)
gray_r=cv2.cvtColor(img_r,cv2.COLOR_BGR2GRAY)

首先讀取左右圖像,然后將它們轉(zhuǎn)換為灰度圖像。

ret_l,corners_l=cv2.findChessboardCorners(gray_l,CHESSBOARD_SIZE,None)
ret_r,corners_r=cv2.findChessboardCorners(gray_r,CHESSBOARD_SIZE,None)

通過(guò)OpenCV的cv2.findChessboardCorners()函數(shù)檢測(cè)左右圖像上的棋盤格角點(diǎn)。這個(gè)函數(shù)的參數(shù)包括:

image:需要檢測(cè)角點(diǎn)的灰度圖像。patternSize:內(nèi)部角點(diǎn)的行列數(shù),即(CHESSBOARD_SIZE[1]-1, CHESSBOARD_SIZE[0]-1)。corners:用于存儲(chǔ)檢測(cè)到的角點(diǎn)坐標(biāo)的數(shù)組。如果檢測(cè)失敗,則該參數(shù)為空(None)。flags:檢測(cè)時(shí)使用的可選標(biāo)志。這個(gè)函數(shù)的返回值包括:

ret:一個(gè)布爾值,用于指示檢測(cè)是否成功。如果檢測(cè)成功,則為True,否則為False。corners:用于存儲(chǔ)檢測(cè)到的角點(diǎn)坐標(biāo)的數(shù)組。接下來(lái)是亞像素級(jí)別的角點(diǎn)檢測(cè)。

cv2.cornerSubPix(gray_l,corners_l,(11,11),(-1,-1),criteria)
cv2.cornerSubPix(gray_r,corners_r,(11,11),(-1,-1),criteria)

這里使用了OpenCV的cv2.cornerSubPix()函數(shù)來(lái)進(jìn)行亞像素級(jí)別的角點(diǎn)檢測(cè)。這個(gè)函數(shù)的參數(shù)包括:

image:輸入的灰度圖像。
corners:用于存儲(chǔ)檢測(cè)到的角點(diǎn)坐標(biāo)的數(shù)組。
winSize:每次迭代中搜索窗口的大小,即每個(gè)像素周圍的搜索范圍大小。通常為11x11。
zeroZone:死區(qū)大小,表示怎樣的對(duì)稱性(如果有的話)不考慮。通常為(-1,-1)。
criteria:定義迭代停止的誤差范圍、迭代次數(shù)等標(biāo)準(zhǔn),和以上的criteria一樣。

img_points_left.append(corners_l)
img_points_right.append(corners_r)

如果檢測(cè)到了左右圖像上的角點(diǎn),則將這些角點(diǎn)的坐標(biāo)存儲(chǔ)到img_points_left和img_points_right中。

cv2.drawChessboardCorners(img_l,CHESSBOARD_SIZE,corners_l,ret_l)
cv2.imshow("ChessboardCorners-Left",cv2.resize(img_l,(img_l.shape[1]//2,img_l.shape[0]//2)))
cv2.waitKey(50)

cv2.drawChessboardCorners(img_r,CHESSBOARD_SIZE,corners_r,ret_r)
cv2.imshow("ChessboardCorners-Right",cv2.resize(img_r,(img_r.shape[1]//2,img_r.shape[0]//2)))
cv2.waitKey(50)

f067cae4-05d5-11ee-962d-dac502259ad0.png在圖片上標(biāo)出檢測(cè)到的角點(diǎn),并在窗口中顯示。這里使用了cv2.drawChessboardCorners()函數(shù),該函數(shù)的參數(shù)包括:

img:需要標(biāo)定角點(diǎn)的圖像。patternSize:內(nèi)部角點(diǎn)的行列數(shù),即(CHESSBOARD_SIZE[1]-1, CHESSBOARD_SIZE[0]-1)。
corners:存儲(chǔ)檢測(cè)到的角點(diǎn)坐標(biāo)的數(shù)組。patternfound:檢測(cè)到角點(diǎn)的標(biāo)記,即ret。

程序接下來(lái)對(duì)雙目攝像機(jī)進(jìn)行標(biāo)定。

ret_l,mtx_l,dist_l,rvecs_l,tvecs_l=cv2.calibrateCamera(obj_points,img_points_left,gray_l.shape[::-1],None,None)
ret_r,mtx_r,dist_r,rvecs_r,tvecs_r=cv2.calibrateCamera(obj_points,img_points_right,gray_r.shape[::-1],None,None)

flags=0
flags|=cv2.CALIB_FIX_INTRINSIC
criteria=(cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER,30,0.001)
ret,M1,d1,M2,d2,R,T,E,F=cv2.stereoCalibrate(
obj_points,img_points_left,img_points_right,
mtx_l,dist_l,mtx_r,dist_r,
gray_l.shape[::-1],criteria=criteria,flags=flags)

這段代碼首先對(duì)左右相機(jī)進(jìn)行單獨(dú)標(biāo)定:

ret_l,mtx_l,dist_l,rvecs_l,tvecs_l=cv2.calibrateCamera(obj_points,img_points_left,gray_l.shape[::-1],None,None)
ret_r,mtx_r,dist_r,rvecs_r,tvecs_r=cv2.calibrateCamera(obj_points,img_points_right,gray_r.shape[::-1],None,None)

這里使用了OpenCV的cv2.calibrateCamera()函數(shù)對(duì)左右相機(jī)進(jìn)行標(biāo)定。這個(gè)函數(shù)的參數(shù)包括:

objectPoints:每幅標(biāo)定圖片對(duì)應(yīng)的物理坐標(biāo)系下的角點(diǎn)坐標(biāo)。
imagePoints:每幅標(biāo)定圖片上檢測(cè)到的像素坐標(biāo)。
imageSize:標(biāo)定圖片的尺寸。
cameraMatrix:用于存儲(chǔ)標(biāo)定結(jié)果的內(nèi)參數(shù)矩陣。
distCoeffs:用于存儲(chǔ)標(biāo)定結(jié)果的畸變系數(shù)。
rvecs:每幅標(biāo)定圖片的外參數(shù)矩陣中的旋轉(zhuǎn)向量。
tvecs:每幅標(biāo)定圖片的外參數(shù)矩陣中的平移向量。
這個(gè)函數(shù)的返回值包括:

ret:一個(gè)標(biāo)志位,表示標(biāo)定是否成功。
cameraMatrix:用于存儲(chǔ)標(biāo)定結(jié)果的內(nèi)參數(shù)矩陣。
distCoeffs:用于存儲(chǔ)標(biāo)定結(jié)果的畸變系數(shù)。
rvecs:每幅標(biāo)定圖片的外參數(shù)矩陣中的旋轉(zhuǎn)向量。
tvecs:每幅標(biāo)定圖片的外參數(shù)矩陣中的平移向量。
然后對(duì)雙目攝像機(jī)進(jìn)行標(biāo)定:

flags=0
flags|=cv2.CALIB_FIX_INTRINSIC
criteria=(cv2.TERM_CRITERIA_EPS+cv2.TERM_CRITERIA_MAX_ITER,30,0.001)
ret,M1,d1,M2,d2,R,T,E,F=cv2.stereoCalibrate(
obj_points,img_points_left,img_points_right,
mtx_l,dist_l,mtx_r,dist_r,
gray_l.shape[::-1],criteria=criteria,flags=flags)

這里使用了OpenCV的cv2.stereoCalibrate()函數(shù)進(jìn)行雙目攝像機(jī)標(biāo)定。這個(gè)函數(shù)的參數(shù)包括:

objectPoints:每幅標(biāo)定圖片對(duì)應(yīng)的物理坐標(biāo)系下的角點(diǎn)坐標(biāo)。
imagePoints1:每幅標(biāo)定圖片的左相機(jī)上檢測(cè)到的像素坐標(biāo)。
imagePoints2:每幅標(biāo)定圖片的右相機(jī)上檢測(cè)到的像素坐標(biāo)。
cameraMatrix1:左相機(jī)的內(nèi)參數(shù)矩陣。
distCoeffs1:左相機(jī)的畸變系數(shù)。
cameraMatrix2:右相機(jī)的內(nèi)參數(shù)矩陣。
distCoeffs2:右相機(jī)的畸變系數(shù)。
imageSize:標(biāo)定圖片的尺寸。
criteria:定義迭代停止的誤差范圍、迭代次數(shù)等標(biāo)準(zhǔn)。
flags:標(biāo)定的可選標(biāo)志。
這個(gè)函數(shù)的返回值包括:

ret:一個(gè)標(biāo)志,表示標(biāo)定是否成功。
cameraMatrix1:左相機(jī)的內(nèi)參數(shù)矩陣。
distCoeffs1:左相機(jī)的畸變系數(shù)。
cameraMatrix2:右相機(jī)的內(nèi)參數(shù)矩陣。
distCoeffs2:右相機(jī)的畸變系數(shù)。
R:旋轉(zhuǎn)矩陣。
T:平移向量。
E:本質(zhì)矩陣。
F:基礎(chǔ)矩陣。

立體匹配

通過(guò)圖像標(biāo)定得到的參數(shù)進(jìn)行立體匹配的整個(gè)流程,如下:

首先,我們需要讀取左右兩張圖像:

img_left=cv2.imread("./left.png")
img_right=cv2.imread("./right.png")

其中,"./left.png" 和 "./right.png" 是放置左右圖像的路徑。這兩幅圖像是未經(jīng)校正和矯正的圖像。

接下來(lái),通過(guò)圖像標(biāo)定得到相機(jī)的參數(shù),根據(jù)得到的參數(shù),將圖像進(jìn)行去畸變:

img_left_undistort=cv2.undistort(img_left,M1,d1)
img_right_undistort=cv2.undistort(img_right,M2,d2)

在上述代碼中,M1、M2、d1、d2 是從雙目相機(jī)標(biāo)定中獲得的參數(shù)。去畸變后的圖像 img_left_undistort 和 img_right_undistort 可供之后的操作使用。

然后,進(jìn)行極線校正,以實(shí)現(xiàn)左右圖像在幾何上的一致性:

R1,R2,P1,P2,Q,roi1,roi2=cv2.stereoRectify(M1,d1,M2,d2,(width,height),R,T,alpha=1)
map1x,map1y=cv2.initUndistortRectifyMap(M1,d1,R1,P1,(width,height),cv2.CV_32FC1)
map2x,map2y=cv2.initUndistortRectifyMap(M2,d2,R2,P2,(width,height),cv2.CV_32FC1)
img_left_rectified=cv2.remap(img_left_undistort,map1x,map1y,cv2.INTER_LINEAR)
img_right_rectified=cv2.remap(img_right_undistort,map2x,map2y,cv2.INTER_LINEAR)

其中,R、T 是雙目相機(jī)標(biāo)定得到的旋轉(zhuǎn)和平移矩陣, (width, height)是左右圖像的尺寸。R1、R2 是左右圖像的旋轉(zhuǎn)矩陣,P1、P2 是左右圖像的投影矩陣,Q 是視差轉(zhuǎn)換矩陣,roi1、roi2 是矯正后的圖像中可以使用的區(qū)域。

然后,將左右圖像拼接在一起以方便觀察:

img_stereo=cv2.hconcat([img_left_rectified,img_right_rectified])
f0de119a-05d5-11ee-962d-dac502259ad0.png

接下來(lái),需要計(jì)算視差圖:

minDisparity=0
numDisparities=256
blockSize=9
P1=1200
P2=4800
disp12MaxDiff=10
preFilterCap=63
uniquenessRatio=5
speckleWindowSize=100
speckleRange=32
sgbm=cv2.StereoSGBM_create(minDisparity=minDisparity,numDisparities=numDisparities,blockSize=blockSize,
P1=P1,P2=P2,disp12MaxDiff=disp12MaxDiff,preFilterCap=preFilterCap,
uniquenessRatio=uniquenessRatio,speckleWindowSize=speckleWindowSize,
speckleRange=speckleRange,mode=cv2.STEREO_SGBM_MODE_SGBM_3WAY)

disparity=sgbm.compute(img_left_rectified,img_right_rectified)

上面的代碼塊定義了使用的視差算法的參數(shù),并使用了 SGBM(Semi Global Block Matching)算法計(jì)算了原始的視差圖。注意,由于使用的是16位的 SGBM 輸出,因此需要將它除以16。f15a6560-05d5-11ee-962d-dac502259ad0.png接下來(lái),可以對(duì)視差圖進(jìn)行 WLS 濾波,減少視差空洞:

#定義WLS濾波參數(shù)
lambda_val=4000
sigma_val=1.5

#運(yùn)行WLS濾波
wls_filter=cv2.ximgproc.createDisparityWLSFilterGeneric(False)
wls_filter.setLambda(lambda_val)
wls_filter.setSigmaColor(sigma_val)
filtered_disp=wls_filter.filter(disparity,img_left_rectified,None,img_right_rectified)
filtered_disp_nor=cv2.normalize(filtered_disp,filtered_disp,alpha=0,beta=255,norm_type=cv2.NORM_MINMAX,dtype=cv2.CV_8U)

上述代碼塊中,WLS 濾波為視差圖降噪,并進(jìn)行平滑處理。這里使用了 cv2.ximgproc.createDisparityWLSFilterGeneric 函數(shù),創(chuàng)建一個(gè)生成 WLS 濾波器的對(duì)象 wls_filter,然后設(shè)置了濾波參數(shù) lambda_val 和 sigma_val。filtered_disp 是經(jīng)過(guò)濾波后的視差圖。filtered_disp_nor 是經(jīng)過(guò)歸一化處理后的、用于顯示的視差圖。

最后,可以在窗口中顯示原始視差圖、預(yù)處理后的 WLS 濾波器的視差圖:

cv2.imshow("disparity",cv2.resize(disparity_nor,(disparity_nor.shape[1]//2,disparity_nor.shape[0]//2)))
cv2.imshow("filtered_disparity",cv2.resize(filtered_disp_nor,(filtered_disp_nor.shape[1]//2,filtered_disp_nor.shape[0]//2)))
cv2.waitKey()
cv2.destroyAllWindows()
f166ca1c-05d5-11ee-962d-dac502259ad0.png


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2910

    瀏覽量

    107796
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    8

    文章

    1700

    瀏覽量

    46075
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4807

    瀏覽量

    84951

原文標(biāo)題:從雙目標(biāo)定到立體匹配:Python實(shí)踐指南

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    雙目立體視覺(jué)原理大揭秘(一)

    的三維坐標(biāo)值了。把該三維坐標(biāo)值輸入機(jī)器人控制系統(tǒng),機(jī)器人就可以智能的實(shí)現(xiàn)避障了。在這部分中用到了“立體匹配”算法,其實(shí)該算法是和雙目標(biāo)定相結(jié)合,該算法根據(jù)特征點(diǎn)在左右圖像中的坐標(biāo)點(diǎn)進(jìn)行基礎(chǔ)矩陣的計(jì)算并將
    發(fā)表于 11-21 16:20

    雙目立體視覺(jué)原理大揭秘(二)

    圖像處理(二值化、邊緣提取、去噪等)后,得到一系列特征點(diǎn)在左右相機(jī)圖像中的平面坐標(biāo)X、Y。第四、根據(jù)雙目立體視覺(jué)CCAS的立體匹配原理——極限約束公式。把第三步提取到的特征點(diǎn)在左右相機(jī)視場(chǎng)中的X、Y
    發(fā)表于 11-21 16:22

    維視雙目產(chǎn)品在高校科研應(yīng)用中的實(shí)例及優(yōu)點(diǎn)分析

    包含的設(shè)備選型、系統(tǒng)搭建、圖像獲取、立體匹配,并給出標(biāo)定結(jié)果,在用戶需要進(jìn)行開(kāi)發(fā)的特征捕捉部分,也給予了豐富的支持。雙目標(biāo)定可以說(shuō)是整套雙目視覺(jué)系統(tǒng)的最關(guān)鍵技術(shù),能夠快速準(zhǔn)確的完成
    發(fā)表于 01-19 16:59

    立體匹配SAD算法原理

    立體匹配SAD算法matlab實(shí)現(xiàn)
    發(fā)表于 06-05 16:08

    雙目視覺(jué)立體匹配算法研究

    雙日視覺(jué)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要組成部分。雙目視覺(jué)研究中的關(guān)鍵技術(shù)攝像機(jī)標(biāo)定立體匹配一直是研究的熱點(diǎn)。本文由兩部分組成,分別對(duì)雙目視覺(jué)的算法和未
    發(fā)表于 08-14 16:41 ?0次下載

    一種快速雙目立體匹配方法_梅金燕

    一種快速雙目立體匹配方法_梅金燕
    發(fā)表于 03-19 11:46 ?0次下載

    基于顏色調(diào)整的立體匹配改進(jìn)算法

    的前提,因此如何提升立體匹配算法在各種場(chǎng)景中的魯棒性也是計(jì)算機(jī)視覺(jué)研究的熱點(diǎn)問(wèn)題。 立體匹配算法的目標(biāo)兩幅校正后的匹配圖片中尋找每個(gè)像素
    發(fā)表于 11-02 11:07 ?0次下載
    基于顏色調(diào)整的<b class='flag-5'>立體匹配</b>改進(jìn)算法

    基于HALCON的雙目是相機(jī)立體視覺(jué)系統(tǒng)標(biāo)定

    攝像機(jī)標(biāo)定是機(jī)器視覺(jué)和攝像測(cè)量領(lǐng)域相對(duì)基礎(chǔ)的工作,同時(shí)也是最復(fù)雜、困難的T作。攝像機(jī)標(biāo)定的意義是得到立體空間中對(duì)象的幾何信息,其中所使用的圖像信息由雙目攝像機(jī)所得。定后的
    發(fā)表于 11-06 14:41 ?30次下載
    基于HALCON的<b class='flag-5'>雙目</b>是相機(jī)<b class='flag-5'>立體</b>視覺(jué)系統(tǒng)<b class='flag-5'>標(biāo)定</b>

    雙目立體匹配的四個(gè)步驟解析

    雙目立體匹配可劃分為四個(gè)步驟:匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化。
    的頭像 發(fā)表于 08-31 10:08 ?5238次閱讀

    雙目立體計(jì)算機(jī)視覺(jué)的立體匹配研究綜述

    雙目立體視覺(jué)技術(shù)具有成本低、適用性廣的優(yōu)點(diǎn),在物體識(shí)別、目標(biāo)檢測(cè)等方面應(yīng)用廣泛,成為計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)。立體匹配雙目
    發(fā)表于 04-12 09:47 ?3次下載
    <b class='flag-5'>雙目</b><b class='flag-5'>立體</b>計(jì)算機(jī)視覺(jué)的<b class='flag-5'>立體匹配</b>研究綜述

    一種基于PatchMatch的半全局雙目立體匹配算法

    景。因此,計(jì)算復(fù)雜度、匹配精度、匹配原理等多方面綜合考慮,提出了一種基于 Patchmatch的半全局雙目立體匹配算法,在路徑代價(jià)計(jì)算過(guò)程
    發(fā)表于 04-20 11:31 ?13次下載
    一種基于PatchMatch的半全局<b class='flag-5'>雙目</b><b class='flag-5'>立體匹配</b>算法

    融合邊緣特征的立體匹配算法Edge-Gray

    為保證SAD算法的立體匹配效率,提高匹配精度,提出一種融合邊緣特征的立體匹配算法 Edge-gray。通過(guò)邊緣計(jì)算得到邊緣特征圖,在進(jìn)行匹配的過(guò)程中,根據(jù)當(dāng)前點(diǎn)與領(lǐng)域點(diǎn)的差值確定
    發(fā)表于 04-29 11:06 ?8次下載
    融合邊緣特征的<b class='flag-5'>立體匹配</b>算法Edge-Gray

    雙目標(biāo)定是什么?為什么要進(jìn)行雙目標(biāo)定

    在這里我們所說(shuō)的雙目標(biāo)定是狹義的,講解理論的時(shí)候僅指兩臺(tái)相機(jī)之間相互位置的標(biāo)定,在代碼實(shí)踐的時(shí)候,我們才說(shuō)完整的雙目標(biāo)定
    的頭像 發(fā)表于 07-04 11:04 ?1.2w次閱讀
    <b class='flag-5'>雙目標(biāo)定</b>是什么?為什么要進(jìn)行<b class='flag-5'>雙目標(biāo)定</b>?

    相機(jī)之間為什么要進(jìn)行雙目標(biāo)定呢?

    在這里我們所說(shuō)的雙目標(biāo)定是狹義的,講解理論的時(shí)候僅指兩臺(tái)相機(jī)之間相互位置的標(biāo)定,在代碼實(shí)踐的時(shí)候,我們才說(shuō)完整的雙目標(biāo)定
    的頭像 發(fā)表于 12-28 17:17 ?2795次閱讀

    雙目立體匹配的四個(gè)步驟

    根據(jù)Schrstein和Szeliski的總結(jié),雙目立體匹配可劃分為四個(gè)步驟: 匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化 。 一 、匹配代價(jià)計(jì)算
    的頭像 發(fā)表于 06-28 16:59 ?1220次閱讀
    <b class='flag-5'>雙目</b><b class='flag-5'>立體匹配</b>的四個(gè)步驟
    主站蜘蛛池模板: 兰桂坊人成社区亚洲精品 | 校花在公车上被内射好舒服 | 国产欧美无码亚洲毛片 | 18禁三级黄| 精品一卡2卡三卡4卡乱码精品视频 | 99久久精品国产交换 | 国产互换后人妻的疯狂VIDEO | 国产亚洲精品久久综合阿香 | 色久久综合视频本道88 | 好男人好资源在线观看 | 久久综合久综合久久鬼色 | 亚洲成A人片在线观看中文不卡 | 国产1广场舞丰满老女偷 | 国产色婷婷精品人妻蜜桃成熟 | 亚洲午夜精品aaa级久久久久 | 亚洲国产在线午夜视频无 | 国产亚洲日韩在线播放不卡 | 日本大尺码喷液过程视频 | 调教美丽的白丝袜麻麻视频 | 打卡中国各地奋斗第一线 | 亚洲色图影院 | 在线不卡日本v二区到六区 在线不卡日本v二区 | 99久久久久精品国产免费麻豆 | 强壮的公次次弄得我高潮韩国电影 | 国产AV精品久久久毛片 | 亚洲国产剧情中文视频在线 | 欧美一区二区三区激情视频 | 伊人久久青青草 | 涩涩视频www在线观看入口 | 添加一点爱与你电视剧免费观看 | 国产午夜亚洲精品理论片八戒 | 午夜神器18以下不能进免费 | 亚洲国产果果在线播放在线 | 先锋影音av最新资源 | 菠萝菠萝蜜免费播放高清 | gay台湾无套男同志xnxⅹ | 13一18TV处流血TV | 亚洲国产精品无码中文字幕 | 含羞草传媒在线观看 | 91黄色大片 | 三级黃60分钟 |