視線遮擋一直是自動駕駛很難攻克的問題。Occlusion,也就是視線遮擋,主要指因為建筑物、障礙物或是其他車輛遮擋視線,導致汽車無法做出最佳決策。在車輛轉彎時候尤為常見。
大家在玩吃雞的時候,都需要找遮擋物。子彈就好像自動駕駛車的雷達波束,只能到達直線以內的范圍。障礙物后面的敵人就沒辦法打到了。
有什么辦法能讓你看穿遮擋物,做到提前預判呢?斯坦福大學和麻省理工各有各的方法,都可以用于自動駕駛。我們一起來看看。
非線性圖像識別 - 斯坦福大學
斯坦福圖像識別組這周剛剛在Nature發表了一篇論文“Confocal non-line-of-sight imaging based on the light-cone transform”,提出非線性圖像識別技術(Non-line-of-sight imaging)
首先,把雷達放在一個光子探測儀旁邊。雷達發出波束,就像普通自動駕駛車一樣。波束接觸到墻面,就會散發出余光。假設圖片里的右下角的兔子是我們需要探測到的行人。
普通自動駕駛車只會看波束返回時間,也就是到P點的時間,從而計算與自動駕駛車的距離。但是這次我們要看波束彈射出的余光。光子探測儀會捕捉這些余光。波束雖然沒有直接照在那只兔子上,但余光會按照一定順序彈在其他表面上。
將所有余光集中在一起,排除那些直接反射回的光束,剩下的就是來自遮擋物的。由此就可以還原出目標物體的3D原型。現在的計算過程只需要1秒鐘,但是還不夠高效,現實駕駛環境需要司機在0.5秒內做出反應。
眼神會轉彎的攝像頭 - 麻省理工
看過了雷達技術,我們再來看看自動駕駛車另一大傳感器:攝像頭。不知大家有沒有留心觀察過墻角的光線變化。肉眼大概能看出有一些深淺的區別。
麻省理工Media Lab最新研究出一種顏色處理方式。通過處理圖像,加強顏色差,不停變化顏色,就可以得到一連串的單向光線圖像。
假設現在墻后面有兩個行人,一個穿藍色,一個穿紅色,藍色衣服的人正在超過紅色衣服的人。我們看到的成像就會是這樣的。
原理很簡單。被遮擋的人雖然我們無法直接看到,但是他們還是會反射一部分光。紅色衣服的人和藍色衣服的人會有重疊的地方。通過一段時間觀察,繪制光線圖,就可以分析出有幾個物體在重疊。
這些發明除了自動駕駛也可用于其他領域,比如自然災害后的搜救、醫學成像、航天、安保監控等等。
-
傳感器
+關注
關注
2552文章
51382瀏覽量
755880 -
攝像頭
+關注
關注
60文章
4860瀏覽量
96141 -
雷達
+關注
關注
50文章
2965瀏覽量
117870 -
自動駕駛
+關注
關注
784文章
13923瀏覽量
166842
原文標題:自動駕駛技術讓你更自信的吃雞
文章出處:【微信號:zidongjiashishuo,微信公眾號:自動駕駛說】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論