色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

拆解移動機器人視覺算法

產業大視野 ? 來源:未知 ? 作者:胡薇 ? 2018-09-18 14:32 ? 次閱讀

談到移動機器人,大家第一印象可能是服務機器人,實際上無人駕駛汽車、可自主飛行的無人機等等都屬于移動機器人范疇。它們能和人一樣能夠在特定的環境下自由行走/飛行,都依賴于各自的定位導航、路徑規劃以及避障等功能,而視覺算法則是實現這些功能關鍵技術。

如果對移動機器人視覺算法進行拆解,你就會發現獲取物體深度信息、定位導航以及壁障等都是基于不同的視覺算法,本文就帶大家聊一聊幾種不同但又必不可少的視覺算法組成。

移動機器人的視覺算法種類

Q:實現定位導航、路徑規劃以及避障,那么這些過程中需要哪些算法的支持?

談起移動機器人,很多人想到的需求可能是這樣的:“嘿,你能不能去那邊幫我拿一杯熱拿鐵過來?!边@個聽上去對普通人很簡單的任務,在機器人的世界里,卻充滿了各種挑戰。為了完成這個任務,機器人首先需要載入周圍環境的地圖,精確定位自己在地圖中的位置,然后根據地圖進行路徑規劃控制自己完成移動。

而在移動的過程中,機器人還需要根據現場環境的三維深度信息,實時的躲避障礙物直至到達最終目標點。在這一連串機器人的思考過程中,可以分解為如下幾部分的視覺算法:

1.深度信息提取

2.視覺導航

3.視覺避障

后面我們會詳細說這些算法,而這些算法的基礎,是機器人腦袋上的視覺傳感器。

視覺算法的基礎:傳感器

Q:智能手機上的攝像頭可以作為機器人的眼睛嗎?

所有視覺算法的基礎說到底來自于機器人腦袋上的視覺傳感器,就好比人的眼睛和夜間視力非常好的動物相比,表現出來的感知能力是完全不同的。同樣的,一個眼睛的動物對世界的感知能力也要差于兩個眼睛的動物。每個人手中的智能手機攝像頭其實就可以作為機器人的眼睛,當下非常流行的Pokeman Go游戲就使用了計算機視覺技術來達成AR的效果。

像上圖畫的那樣,一個智能手機中攝像頭模組,其內部包含如下幾個重要的組件:鏡頭,IR filter,CMOS sensor。其中鏡頭一般由數片鏡片組成,經過復雜的光學設計,現在可以用廉價的樹脂材料,做出成像質量非常好的手機攝像頭。

CMOS sensor上面會覆蓋著叫做Bayer三色濾光陣列的濾色片。每個不同顏色的濾光片,可以通過特定的光波波長,對應CMOS感光器件上就可以在不同位置分別獲得不同顏色的光強了。如果CMOS傳感器的分辨率是4000x3000,為了得到同樣分辨率的RGB彩色圖像,就需要用一種叫做demosaicing的計算攝像算法,從2綠1藍1紅的2x2網格中解算出2x2的RGB信息。

一般的CMOS感光特性除了選擇紅綠藍三色之外,對于紅外光是透明的。因此在光路中加上IR濾光片,是為了去除太陽光線中紅外光對CMOS的干擾。加上濾光片后,通常圖像的對比度會得到顯著的提升。

Q:計算機視覺中還會用到什么傳感器?

除了RGB相機,計算機視覺中常用的還有其他種類的特殊相機。例如有一種相機的濾光片是只允許通過紅外光波段的。因為人眼通常是看不見紅外光的,所以可以在相機附近加上主動紅外光源,用于測距等應用。

另外,大部分我們用到的camera都是以rolling shutter的形式實現電子曝光的,像圖中左側那樣,為了減少電子器件的成本,曝光通常是一行一行分別進行,這樣勢必造成物體快速移動時,相機采集到的圖像會發生形變。為了避免這種形變對基于立體幾何進行計算的視覺算法的影響(例如VSLAM),選用global shutter的相機就顯得特別重要了。

深度相機是另一大類視覺算法中需要的傳感器,可以分成如下幾類:

1.TOF傳感器(例如Kinect 2代),類似昆蟲復眼。成本高,室外可以使用。

2.結構光傳感器(例如Kinect 1代),三角定位原理,成本中,室外不能用。

3.雙目視覺(例如Intel Realsense R200),主動照明或被動照明,IR或可見光皆可。成本低,室外可以使用。

算法一:深度信息提取

Q:深度相機如何識別物體的深度信息的呢?

簡而言之,其原理就是使用兩個平行的相機,對空間中的每個點三角定位。通過匹配左右兩個相機中成像點的位置,來計算對應三維點在空間中的距離。學術界對雙目匹配恢復深度圖研究有很長的歷史,在NASA火星車上就開始采用這個技術。但是其真正在消費電子品市場得到廣泛應用還是從微軟的Kinect體感傳感器開始。

Kinect傳感器背后使用了以色列Primesense公司授權的結構光技術(如今已被Apple收購)。其原理是避開雙目匹配中復雜的算法設計,轉而將一個攝像頭更換成向外主動投射復雜光斑的紅外投影儀,而另一個平行位置的相機也變成了紅外相機,可以清楚的看到投影儀投射的所有光斑。因為人眼看不到紅外光斑,而且紋理非常復雜,這就非常有利于雙目匹配算法,可以用非常簡潔的算法,識別出深度信息。

盡管Kinect的內在原理官方并沒有給出解釋,在近年來一篇Kinect Unleashed的文章中,作者向公眾hack了這個系統的工作原理

首先,紅外圖像在基線方向上采樣8倍,這樣可以保證在做雙目匹配后實現3bit的亞像素精度。然后,對圖像做sobel濾波,使得圖像的匹配精度提高。而后,圖像與預存的投影光斑模板圖像進行SAD block matching。該算法的計算復雜度小,適合硬化和并行。最后,經過簡單的圖像后處理,下采樣到原始分辨率,得到最終的深度圖。

我們可以看到,隨著2009年Kinect設備在消費機市場的爆發(發售頭10天100萬臺),逐漸開始催生了類似技術變種在移動端設備的研發熱潮。從2013年至今,隨著計算能力的提升和算法的進步,硬件成本更低的主動/被動雙目深度相機開始在移動手機上涌現。

過去認為很難實時運行的雙目匹配算法,即使在沒有主動結構光輔助的情況下,也表現出非常優異的3D成像質量。Segway robot采用了主動/被動可切換的雙目深度視覺系統。如下圖所示,左側三個傳感器分別為,左紅外相機,紅外pattern投影,右紅外相機。在室內工作時,因為紅外光源不足,紅外投影打開,輔助雙目匹配算法。在室外工作時,紅外光源充足,紅外投影關閉,雙目匹配算法可以直接運行。綜合看,此系統在室內外都表現出優異的深度傳感能力。

算法二:定位導航

Q:視覺處理后,機器人是如何實現導航的?

機器人導航本身是一個比較復雜的系統。其中涉及到的技術會有如下列表:

視覺里程計 VO

建圖,利用VO和深度圖

重定位,從已知地圖中識別當前的位置

閉環檢測·,消除VO的閉環誤差

全局導航

視覺避障

Scene tagging,識別房間中物體加上tag

機器人開機,視覺里程計就會開始工作,記錄從開機位置起的6DOF定位信息。在機器人運動過程中,mapping算法開始構建機器人看到的世界,將空間中豐富的特征點信息,二維的地圖信息記錄到機器人map中。

當機器人運動過程中因為遮擋、斷電等原因丟失了自身的坐標,重定位算法就需要從已知地圖中定位到機器人當前的位置估計。另外,當機器人運動中回到了地圖中曾經出現過的位置,往往視覺里程計的偏差會導致軌跡并沒有完全閉合,這就需要閉環算法檢測和糾正這個錯誤。

有了全局地圖之后,機器人就可以給定一些目標點指令,做全局的自主導航了。在現實中,因為環境是不停變化的,全局地圖并不能完全反映導航時的障礙物狀況,因此需要凌駕于全局導航之上的視覺避障算法進行實時的運動調整。

最后,一個自動的導航系統還需要機器人自動識別和理解空間中的不同物體的信息、位置、高度和大小。這些tag信息疊加在地圖上,機器人就可以從語義上理解自己所處的環境,而用戶也可以從更高層次下達一些指令。

Q:視覺VSLAM在機器人上的實現有哪些難點?

視覺VSLAM是一個集合了視覺里程計,建圖,和重定位的算法系統。近年來發展很快。基于特征的視覺SLAM算法從經典的PTAM算法開端,目前以ORB-SLAM為代表的算法已經可以在PC上達到實時運行。下面是一個ORBSLAM的框圖:

從名字可見,其使用ORB作為圖像特征提取工具,并且在后續的建圖及重定位中均使用了同一份特征點信息。相對于傳統的SIFT和SURF特征提取算法,其效率高出很多。

ORB-SLAM包含三個并行的線程,即跟蹤,建圖和閉環。其中跟蹤線程運行在前端,保證實時運行,建圖和閉環線程運行在后端,速度不需要實時,但是與跟蹤線程共享同一份地圖數據,可以在線修正使得地圖數據精度和跟蹤精度更高。下圖是ORB-SLAM地圖的主要數據結構,

點云和關鍵幀。兩者之間通過圖像上2D特征點與空間中的點云建立映射關系,同時還維護了關鍵幀之間的covisibility graph關系。通過這些數據關聯,用優化方法來維護整個地圖。

ORB-SLAM在機器人上應用仍然存在如下難點:

1.計算量過大,在4核處理器上通常會占去60%左右CPU資源。

2.在機器人運動過快時會出現跟丟不可復原的情況。

3.單目SLAM存在尺度不確定的問題。在機器人快速旋轉時,此問題尤其明顯,很快會出現閉環誤差過大無法糾正的情況。

針對尺度問題,有兩種方法解決:增加一個攝像頭形成雙目SLAM系統,或者增加一個IMU形成松耦合/緊耦合的視覺慣導定位系統。這里簡單介紹松耦合的視覺慣導定位系統。一般把VSLAM當成一個黑盒子,將其的輸出作為觀測量放到一個基于IMU的EKF系統中,EKF最終fuse的輸出即是系統的輸出。

考慮到camera數據和IMU數據通常是不同步的,因此通過硬件時間戳,需要判斷圖像數據對應的時間戳與IMU時間戳的關系。在EKF propagate步驟,更高幀率的IMU數據不停的更新EKF的狀態。在camera數據到來時,觸發EKF update步驟,根據EKF建模方程來更新狀態變量、協方差矩陣,并且重新更新所有晚于camera數據的IMU數據對應的狀態變量。

Segway Robot采用了業界領先的視覺慣導定位系統,下面是一個在樓道里面運行一圈,回到原點之后的效果圖,具體有如下優勢:

1.在大尺度下可以保證非常小的閉環誤差

2.實時運行,需求CPU資源小

3.允許快速旋轉等情形,不會跟丟

算法三:避障

Q:視覺避障的算法原理是怎樣的?

導航解決的問題是引導機器人接近目標。當機器人沒有地圖的時候,接近目標的方法稱為視覺避障技術。避障算法解決的問題是根據視覺傳感器的數據,對靜態障礙物、動態障礙物實現躲避,但仍維持向目標方向運動,實時自主導航。

避障算法有很多,然而這些方法都有嚴格的假設,假設障礙物為圓形或假設機器人為圓形,假設機器人可以任意方向運動,s或假設它只能走圓弧路徑。然而實際應用上,機器人很難達到條件。比如VFF算法, 該算法假設機器人為點,而且可以任意方向運動。VFH+假設機器人為圓形,通過圓形膨脹障礙物,在考慮運動學問題時僅僅假設機器人以圓弧路徑運動。DWA也假設機器人為圓形,在考慮運動學問題時只模擬了前向圓弧運動時的情況。

相對而言,我們不限制機器人的形狀,考慮運動學問題時,模擬多種運動模型,而不限于圓弧運動,因為這樣可以為機器人找到更佳避開障礙物的行為。

這張圖顯示了使用不同運動學模型導致不同的避障結果。左圖表示使用圓弧模型時模擬的路徑,右圖表示使用另一種路徑模型模擬的路徑。在這種狹小環境,此方法可以提前預測多個方向的障礙物情況,選擇合適的模型可以幫助找到更合適的運動方向躲避障礙物。

和目前常用的避障算法之間存在的差異在于,它將運動學模型抽象化到周圍環境地圖中,然后就可以使用任何常用的避障算法,這樣就解耦了運動學模型與算法的捆綁,而且任何要求嚴格的避障算法都能加入進來。Segway Robot的避障系統,綜合了深度傳感器,超聲波,IMU等sensor。在復雜的環境中,可以自如躲避障礙物。

這張圖是我們的避障系統的一個截圖,可以看到深度圖和2維的避障地圖。最下面紅色的指針就代表了每時每刻避障的決策。

精彩問答

Q:為什么選用ir相機而不是傳統的rgb相機呢?ir相機相對來講的優勢在哪里?

A:ir相機可以看到人眼看不到的物體,比如深度相機需要在室內投射紅外紋理,幫助深度識別。人眼看不到,但ir相機可以看。

Q:現在機器人導航是否主要是slam技術,還有沒其他導航技術?主要流行的slam技術有哪些?用于無人駕駛和無人機的視覺導航技術有哪些異同?

A:slam技術是導航中的一個基礎模塊,種類很多,有單目,雙目,depth,imu+視覺等傳感器為基礎的算法。雙目相機可以很好的適應室內和室外的環境。他的體積其實非常小,segway robot使用的camera長度在10cm左右

Q:現在有無用于機器人導航的導航地圖存在,類似車載導航地圖?用于機器人導航的地圖數據有哪些?

A:現在還沒有這樣的機器人導航地圖存在,但是是研發熱點。比如tesla和mobileye的地圖之爭。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 移動機器人
    +關注

    關注

    2

    文章

    778

    瀏覽量

    33753
  • 視覺算法
    +關注

    關注

    0

    文章

    32

    瀏覽量

    5654

原文標題:【Robot 學院】深度解析移動機器人的幾種視覺算法

文章出處:【微信號:robotn,微信公眾號:產業大視野】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    移動機器人運動控制系統設計及控制算法研究

    移動機器人運動控制系統設計及控制算法研究
    發表于 08-20 15:54

    移動機器人常用傳感器

    移動機器人常用傳感器
    發表于 08-20 22:33

    資料:移動機器人能否自動充電?

    、餐飲服務行業已經應用到了機器人。不過目前,移動機器人都是使用高質量的機載可充電蓄電池組來給自身供電,但是一般只能維持幾個小時,一旦電能耗盡,必須采用人工干預的方式來給機器人充電。如果采用人工充電,那么
    發表于 01-20 09:39

    Labview My RIO 移動機器人

    LabView For MyRIO。myRIO組件包中有機器視覺處理模塊,多軸聯動插補運動解算模塊,移動機器人Robotic開發包,內部有全向輪運動解算模塊,移動機器人路徑規劃,定位,
    發表于 08-21 12:20

    機器人、協作機器人移動機器人,你分的清楚嗎

    我覺得現在是時候討論一些更有趣的話題,今天的話題是介紹工業機器人、協作機器人移動機器人。我想每個人都知道機器人是什么。機器人是可怕的大型
    發表于 10-30 11:33

    想設計炫酷的移動機器人?視覺定位設計方案分享給你!

    針對移動機器人的局部視覺定位問題進行了研究。首先通過移動機器人視覺定位與目標跟蹤系統求出目標質心特征點的位置時間序列, 然后在分析二次成像法獲取目標深度信息的缺陷的基礎上, 提出了一種
    發表于 06-01 08:00

    如何實現移動機器人的設計?

    ,導航技術,計算機技術,人工智能等多個領域,因而對移動機器人的控制部分提出很高的要求,特別是視覺傳感器的出現,要求控制系統不僅存儲量大,而且處理速度快等。以往基于PLC和單片機控制的移動機器人就不能很好
    發表于 11-23 15:08

    請問怎么設計一種室外移動機器人組合導航定位系統?

    怎么設計一種室外移動機器人組合導航定位系統?如何實現室外移動機器人組合導航定位系統的硬件設計?如何實現室外移動機器人組合導航定位系統的軟件設計?
    發表于 04-19 10:50

    什么是移動機器人軟硬件系統問題

    接觸了移動機器人這么久,我覺得應該寫點什么東西,分享一下最基礎的自己關于移動機器人的理解,也作為筆記總結,留到以后查閱。目前我還是覺得自己剛入門,有時候總想的太多,不如實踐來的更直接,下面總結之前
    發表于 08-06 06:13

    差速移動機器人軌跡跟蹤控制方法

    PID控制器設計3、距離PID控制器設計四、基于PurePursuit算法的差分移動機器人軌跡跟蹤方法1. PurePursuit算法基礎2.控制律設計3.基于兩輪差速模型的PurePursuit
    發表于 09-01 08:41

    詳解移動機器人軟硬件系統問題

    什么是移動機器人軟硬件系統問題?移動機器人軟硬件系統有哪些問題呢?
    發表于 11-11 06:07

    【科普】干貨!帶你從0了解移動機器人(三) ——自主導航系統及上位機軟件設計與實現

    發展。在前兩篇文章中,我們介紹了移動機器人的基本概念和硬件組成。本文繼續深入探討移動機器人的自主導航系統及上位機軟件****設計與實現。 01移動機器人的內載算法 為了實現
    發表于 06-28 09:36

    基于Matlab和VR技術的移動機器人建模及仿真

    利用 Matlab 建立移動機器人的動力學模型 ,在虛擬現實 (VR )環境下 ,實時仿真移動機器人路徑跟蹤的運動特性 ,為基于 Internet 的機器人遙操作試驗搭建了仿真平臺 。 實驗結果表明
    發表于 09-20 06:24

    移動機器人視覺算法種類與深度相機傳感器的分類

    等功能,而視覺算法則是實現這些功能關鍵技術。 如果對移動機器人視覺算法進行拆解,你就會發現獲取物
    發表于 09-27 10:37 ?11次下載

    關于波士頓等移動機器人視覺算法分析

    如果對移動機器人視覺算法進行拆解,你就會發現獲取物體深度信息、定位導航以及壁障等都是基于不同的視覺算法
    發表于 03-19 09:47 ?786次閱讀
    主站蜘蛛池模板: 大稥焦伊人一本dao 大香伊人中文字幕精品 | 校花爽好大快深点h | 美女露出逼 | 芳草地社区在线视频 | 高清一区二区亚洲欧美日韩 | 用震蛋调教女性下面视频 | 天天看片视频免费观看 | 2018久久视频在线视频观看 | 成人免费在线 | 91精品国产色综合久久 | 国产 亚洲 中文在线 字幕 | 中国老太太xxx | 欧美九十老太另类 | 91久久偷偷看嫩草影院无费 | 青青在线视版在线播放 | 青柠在线观看视频在线高清完整 | av天堂网站avtt2017 | 亚洲乱码中文字幕久久孕妇黑人 | 国产51麻豆二区精品AV视频 | 专干老肥熟女视频网站300部 | 亚洲九九精品 | 亚洲成在人线视频 | 嫩草国产精品99国产精品 | 高清国产一区 | 777午夜精品久久AV蜜臀 | 国产三级精品三级在线观看 | 国语大学生自产拍在线观看 | 日韩午夜影院 | 亚洲AV无码乱码国产精品品麻豆 | 免费精品国偷自产在线 | 一攻多受h嗯啊巨肉bl巨污 | 97色色极品av影院 | 国产精品久久久久久久久久免费 | 女人一级毛片免费观看 | 欧美丝袜女同 | 无止侵犯高H1V3无止侵犯 | 色综合精品无码一区二区三区 | 国产偷国产偷亚州清高 | 大香伊人中文字幕精品 | 国产成人mv 在线播放 | 蜜芽丅v新网站在线观看 |