本文深刻剖析了自動駕駛攝像頭、雷達、激光雷達三大傳感器的未來趨勢,主要根據他們主要特點、優劣勢和技術的發展現狀進行詳細的描述。
要想在2021/2022的年度車型上實現SAE L4/L5的全自動駕駛功能,就需要應用多種傳感器冗余系統。當今的半自動駕駛系統采用了各種各樣數量和設計的雷達和攝像頭系統。而高性能價格合理、能檢測300米半徑內信息的激光探測與測距系統開發,還處在預研階段。大多數汽車制造商都認為,如果要實現全自動駕駛,雷達,攝像頭和激光雷達這三大傳感器系統缺一不可。
到底是什么自動駕駛?
如果一輛車配備了巡航和限速功能,這算是自動駕駛嗎?當然不算,但如果加上自動距離保持和自適應巡航控制(ACC Adaptive Cruise Control)、并且司機可以在某些情況下短暫地將控制權交給車子本身呢?
對于自動駕駛的不同類別劃分已經在以下表一中列出了。這一分類在美國是基于國際工程與汽車工業協會SAE3016標準列出的,在歐洲則是聯邦高速公路研究所制定的。具體可以參考車云菌以往的文章(一篇文章讀懂NHTSA自動駕駛分級),這里不做贅述。
自動駕駛分級
到目前為止,沒有汽車制造商能在量產的汽車中實現L3或更高等級的自動駕駛功能,但也有一部分已經生產出了樣車。有些國家正在制定法律,以準入一些預計2020/2021上市的SAE L3自動駕駛汽車。
要實現L1-L5自動駕駛分別需要什么樣的傳感器?如上文所說,目前有基于攝像頭/雷達/激光雷達的三種傳感器系統。盡管停車所需的超聲波傳感器目前已被廣泛應用,但它們對自動駕駛來說沒什么作用。攝像頭和雷達系統如今都已經配備在了自動駕駛L1和L2的汽車上,它們也是是實現更高等級自動駕駛的先決條件。
圖1:汽車中使用的不同傳感器
如今的攝像頭系統采用CMOS圖像傳感器(complementroy meta-odix sensor互補金屬氧化物半導體,一種大規模集成電路制造工藝和技術),能達到100-200萬像素的高清傳感器。單雙目攝像頭和雷達系統融合,能為駕車人提供障礙物或者移動物體的速度、距離和外觀形狀等信息。近程(工作在24 GHz)或遠程(工作在77GHz)雷達傳感器一般裝在車身的前部和后部,用來確定車身前后的交通狀況,它們能監控從距離1厘米到數百米間的狀況。目前,激光探測系統很少被用于汽車量產中,這一技術的巨大潛能還有待繼續開發,但首先需要解決成本和滿足車規標準的問題。
攝像頭 后視和360度攝像頭
視頻影像能給人類司機提供很多駕車信息,同時也能作為輸入信息被用于高度自動駕駛汽車。后視和360度攝像頭能讓司機更好地了解車子周圍的環境狀況。如今,2D攝像頭在顯示圖像和加載更多輔助信息(如輪胎轉向角度等)方面非常常用。高端品牌車商更開始在車上加裝帶有3D影像顯示功能的攝像頭了。
為了讓3D顯示更加真實,通常需要4-6個攝像頭聯合輸入信號。而且在“圖像拼接”過程中需要格外注意,以防損失任何圖像信息或者產生重影。
不論2D還是3D攝像頭都需要圖像傳感器有至少130dB的高動態范圍(動態范圍指一個多媒體硬盤播放器輸出圖像的最亮和最暗部分之間的相對比值)。只有這么高的動態范圍才能保證,即使陽光直射到鏡頭上,傳感器也能得到清晰的圖像信息。目前市場上最好的圖像傳感器動態范圍達到145dB,通過24位的接口與圖像信號處理器(ISP Image Signal Processor)相連。普通的鏡頭系統動態范圍遠遠低于這個值。
另一個關鍵品質特征則是圖像傳感器的光線強度。目前,市場上最好的傳感器信噪比(SNR Signal to Noise Ratio輸出信號同時輸出的噪聲信號的比值)能達到1比1mlx(毫勒克斯),每秒顯示幀數達到30幀。
當前,汽車后視和360度攝像頭系統通常采用中央集中架構。也就是說,一個中央控制模塊統一處理4到6個攝像頭的原始數據。而由于這種數據處理是通過軟件完成的,就對處理器提出了很高的要求。因為需要更多的FPGA(Field-Programmable Gate Array,即現場可編程門陣列,一種可編程半定制集成電路,可以更快更好地實現集成電路設計功能)來加快硬件處理的速度,在系統中造成了很高的能量損失。最新的數據壓縮方法也需要大量的存儲空間。
以下圖片展示了另一種方法,該方法將圖像處理過程分散在各個攝像頭上,再將處理后的數據通過Ethernet(局域以太網)傳送給汽車車機主機(包含主顯示屏控制功能的電子控制模塊),從而完成圖像的收集和顯示。單個的圖像信息在攝像頭內處理,再通過以太網接口和短延時視頻編碼器H264被送到音響主機的主處理器中。圖2展示的是未來車載攝像頭系統從模擬信號向數字信號發展的過程。
圖2:未來車載攝像頭系統從模擬信號向數字信號的發展
到2020年,大多數攝像系統都將是以數字信號為基礎的。現有的數字攝像系統將獲得的原始數據處理后送到顯示模塊進行圖像顯示。圖3則展示了這一過程。
圖3:中央集中式圖像處理
非中央集中化的方式完全去掉了攝像頭控制模塊(ECU),只留下了智能攝像頭和車機主機。說得更直白一點,這一方法在攝像頭和中央攝像頭控制模塊中各有一個處理步驟,圖4列出了相關細節。
圖4:兩階段系統路徑
第一階段(在數碼攝像頭內部),處理圖像信息,完成在視覺效果方面的轉換,如魚眼和濾鏡,圖像壓縮以及以太網處理和傳送也在這里完成。第二階段(在中央攝像頭模塊里),完成視頻解碼、中間存儲和將圖像顯示在屏幕上的過程。
這一方法使后視攝像頭能夠壓縮信息并通過以太網傳輸到車機主機上。圖5顯示了一個此類高度集成化的數碼后視攝像頭的技術細節。
圖5:高度集成化的車用后視攝像頭
數碼攝像頭還有一種應用,是將4個攝像頭的視頻信號融合成一個360度無死角觀察視線,如圖6所示。
圖6:360環視
前視攝像頭系統
這一類系統常常用于距離中等或更遠的場合,如在90米到250米的距離上。這些攝像頭采用算法來自動檢測物體、給它們分類并判斷出距離它們的遠近。例如,攝像頭能判別行人和騎自行車的人、摩托車、路邊黃線、橋梁橋墩和馬路牙子。這類算法也被用在探測交通標識和信號上。
中程攝像頭往往會就十字路口的情況、行人、前車緊急剎車、探測到的車道和信號燈情況給司機以警告。長程攝像頭則被用于辨識交通標志、基于視頻信息控制車距和道路導航 。
在這些攝像頭系統中,因為只有直接來源于圖像傳感器的原始數據會被用到,所以不怎么需要對顏色進行準確地復原。通常,系統會采用帶有RCCC矩陣(Red Clear Clear Clear, 指一個像素帶有一個紅光和三個無色濾鏡)的顏色濾鏡,從而在大多數圖像傳感器中得到比RGB(Red Green Blue, 紅綠藍)濾鏡更高的光線強度(從而圖像也才更清晰)。
中程和遠程攝像頭之間最主要的區別就是鏡頭的孔徑角度,也叫FoV(Field of View視場)。中程鏡頭的水平視界(與水平線的夾角)約為70度到120度,而孔徑角度更廣的攝像頭的水平視界通常為35度。
未來的系統會將中程和遠程圖像的內容通過光學系統集成起來,屆時,攝像頭的圖像傳感器將超過700萬像素。
雷達
有事故數據表明,超過76%的事故都是僅僅由于人類的錯誤而產生的;而在94%的事故中,有人類失誤的因素在內。ADAS(Advanced Driver Assistance Systems,高級駕駛員輔助系統)配備了數個雷達傳感器,從而能很好地支持無人駕駛的整體功能。當然,這里還是有必要說明一下,RADAR全稱為Radio Detection And Ranging,即用無線電波探測和定位物體。
目前的雷達系統一般采用24GHz或77GHz的工作頻率。77GHz的優勢在于其對測距和測速的準確性更高,水平角度的分辨率也更好,同時天線體積更小,也更少出現信號干擾的情況。
以下是SRR(Short-range radar短程雷達系統)和MRR/LRR (mid-range radar, long-range radar中/長程雷達系統)的主要區別。
短程雷達的主要應用方面為:
1) 盲區探測(盲區監控)
2) 車道保持和變道輔助
3) 后置雷達碰撞報警或防撞保護
4) 泊車輔助
5) 十字路口交通監控
中長程雷達的主要應用方面為:
1) 剎車輔助
2) 緊急制動
3) 自動距離控制
短程雷達一般被用于替代超聲波傳感器以及支持更高等級的自動駕駛。為此,汽車上每個角落都將被安上傳感器,車身前端則會裝一個用于長程探測的前視傳感器。車身360°全覆蓋的雷達系統中,車身兩側中部也會另外安裝上傳感器。
理想狀況下,這些雷達傳感器都將采用79GHz的頻段和4Ghz的傳輸帶寬。但是,全球信號頻率傳輸標準目前在77GHz頻道只允許1GHz的帶寬。如今,對于雷達MMIC (monolithic microwave integrated circuit單塊微波集成電路)的基本定義是“3個發射頻道(TX)和4個接收頻道(RX)被集成在單塊電路上”。
行業內的討論的熱點問題在于:將基帶處理功能集成在MMIC上,或是專注于制造僅負責收集原始數據的雷達傳感器,哪一種更好。
兩者的區別在于,加了基帶處理器之后,就有了“預處理數據”,也就是說,有關每個探測對象的速度、距離、信號強度、水平角和垂直角等未被最終驗證的信息都在傳感器上先預處理過了。反之,僅負責數據收集的雷達傳感器則只會提供未經篩選的原始數據,然后傳給ECU來處理。圖7展示了僅進行原始數據收集的雷達傳感器的基本架構。
圖7:雷達傳感器(僅進行原始數據收集)的基本架構
在雷達傳感器不進行預處理的情況下,基帶處理功能被集成在了雷達處理控制器里,而雷達傳感器會將未經處理的數據直接傳輸給處理控制器。
這一方法有幾大優點。首先,將基帶處理功能集成化,就能采用一個相對簡單的COMS線性結構,而不是射頻設備獨有的優化技術,這樣就能節約所需的單晶硅表面面積,從而降低成本。還有一個優勢是將需要散熱的位置從雷達系統轉移到了控制單元中,由于控制器比雷達傳感器的空間更大,從而能更好地解決散熱問題。
最后,因為不對數據進行過濾或壓縮,也就不會產生數據丟失,控制器能夠直接使用來自于傳感器的原始數據,從而使信號處理有更多和更靈活的方法。就算這樣的情況下對傳感器的傳輸速率有了更高的要求,這也不是問題,因為數據可以通過MIPI CSI-2通信協議接口傳輸(見圖8)。
圖8:MIPI CSI-2通信協議接口
這一接口協議如今已經被商業化,如用在視頻環視系統中。這種架構與圖8中的原始數據雷達傳感器配合地非常好:信號接口有4條數據線,可以接入4個信號接收器,并配有12位的雷達單塊微波集成電路,通信接口的帶寬也能達到1到1.5Gbit每秒。
如圖9所示,因為這樣的雷達傳感器布置采用了相同的通信接口,這就簡化了攝像頭和雷達以及未來的激光傳感器(收集到的)數據的融合過程。
MMIC的技術發展有個先決條件,即通過高頻技術來實現24GHz或77GHz的頻帶要求并滿足其相應的輸出功率。
如今,鍺硅異質結雙極晶體管已經被用在高頻部件上,而單片130納米CMOS處理器也已經被用于邏輯集成電路。過去的數年里,ST(意法半導體公司,全球最大的半導體生產研發公司之一)已經利用BiCMOS技術生產出了24GHz的單塊微波集成電路,。而77/79GHz基帶技術的發展也采用了最新的BiMOS9MW技術,CMOS元件的寬度可以達到最小130nm。
針對未來的超高頻122GHz頻帶雷達系統,ST也已經開發出了B55技術。這一技術使鍺硅異質結雙極晶體管能達到超過320GHz的傳輸頻率,而且還可以被集成在55納米的CMOS數字邏輯電路上。
除了優化的BiCMOS技術,意法半導體公司還能將片上系統通過公司自行開發的FD-SOI技術集成起來,刷制在僅有28nm厚的電路板上。圖9顯示了目前MMIC的發展過程。在24GHz頻帶范圍內的最新研發成果是A431塊,它包含了一個發射器和三個接收器。圖中的26GHz基帶元件則主要是為美國市場而開發的。
▲圖9:MMIC路線圖
路線圖展示的77/79GHz零件中,A770/A772目前還處于研發階段,而圖10框圖中的A770MMIC收發器已經是一個高度集成的產品了。
圖10:A770MMIC收發器
A770是一個單片集成收發器,包括了三個發射器、四個接收器、一個可調的鋸齒波發生器,一個集成的ADC(Analog to Digital Converter模數轉換器)和一個MIPI CSI II 接口。當需要更多發射和接收通道時,這一模塊甚至可以被級聯起來。模塊被封裝在9mm*9mm的陶瓷EWLB(Embedded Wafer Level Ball Grid Array內嵌式晶圓級球柵陣列)中,可以被用于中程和長程探測。
目前在進行可行性研究的雷達傳感器是一個單片片上系統,同時集成了雷達和基帶傳輸功能。如同之前所說的,目前意法半導體正在研究極高的集成狀態下原始數據雷達傳感器的各個細節和可能存在的缺陷,也在通過市場方面的研究探討其商業上的相關問題。
激光雷達傳感器
激光雷達是汽車領域相對較新的應用系統,但正愈來愈引起人們的注意。系統和半導體供應商們正專注于研發和改進新的解決方案,并計劃2020/2021年將樣件應用起來。
什么是LIDAR(激光雷達)?如前所說,它是利用激光進行探測和測距技術的簡稱。除了需要激光發射器,這一系統還需要有一個高精度的接收器。由于能通過獨特的方法提供被探測物體的三維影像,激光雷達主要被用于測量與固定或移動物體間的距離。
如今,任何買了激光測距儀的人都在用這種方法在家中、建筑材料商店等地方測量距離,其能測量的距離可達數米。而對于駕駛員輔助系統,關鍵挑戰則在于保證系統在任何環境狀況下(溫度變化、陽光照射、黑暗中或雨雪天氣)都能正常工作,而且還要能辨認出300米以外的物體。當然,還需要能夠體積最小,可以在最低的成本下大規模生產。
激光雷達系統不是新興事物,也已經在工業和軍事方面應用了很多年。但是,我們這里所說的是復雜的機械透鏡系統,還要帶有360度無死角視線,能捕捉到物體的空間三維影像。如果還像工業和軍事上那樣售價成千上萬美元,那么將不可能被大規模運用在汽車領域。
如今,激光雷達系統有2個主要發展方向,紅外激光雷達系統加上微電機械系統(MEMS Micro-Electro-Mechanical System)(配上轉動的激光發射器),或者采用固定狀態的激光雷達系統。
在簡要地討論這些技術的區別以前,需要對接收系統解釋一下。
接收系統的主要功能是識別從發射器發出的和從物體上反射的光束。因此探測器需要非常靈敏,以至能夠探測到單個的光子。如今,最新的相關設備采用了SPAD(Single-Photon Avalanche Diode單光子雪崩二極管) 技術。
▲圖11:SPAD 傳感器單元的原理
該技術的原理很簡單,如圖11所示。這個二極管有特殊的偏移PN結結構,所以單個的光子就能在二極管內造成雪崩電流(由一點小電流引發的大量電流,類似雪崩現象,故名)。快速增大的二極管電流會被相應的電路探測到,然后產生數字信號,用于后期處理。
▲圖12:激光雷達測距原理
圖12顯示的是采用SPAD傳感器測量距離的工作原理。在時間為X時,激光發射器發出一個脈沖光信號,這一信號會被物體反射回來,經過Y時間后一個(或更多)光子到達傳感器,到該物體間的距離可以從光線傳播的時間長短計算出來。
如果一束或多束光線從轉動的鏡面或微型機械系統中發射出來,而又有一個由數個傳感器元件組成的陣列,那么三維立體的物體也能被探測出來。圖13和14就展示了兩種基本的激光探測系統的測量過程。
▲圖13:固態激光雷達測距原理
▲圖14:基于MEMS的激光雷達測距原理
當采用基于MEMS技術的微型鏡面系統時,單一束的激光信號會以線形形式被發散和反射回來,反射的光子被相對應的SPAD元件中的光敏傳感器檢測到。這對于鏡面系統準確性、工作壽命、可調節度和可靠性有非常高的要求。畢竟這是一個內部帶有可動部件的系統。
乍一看上去,一個沒有可動零件的系統似乎更容易實現。但在這一系統中,需要數個(超過100個)激光二極管以及一個相對較大的接收器陣列。激光二極管必須能發出脈沖寬度在毫微秒級上的、電流達數個安培的信號能力,這對半導體制造商是很大的挑戰。
兩種系統都還在開發中。從一個半導體制造商的角度上來看,系統所需的半導體元件在技術上是可行的,但是SPAD陣列所需的空間面積不好實現。要想激活和控制激光二極管陣列,并實現大約100美元的目標成本,則需要新的方法。相應的微電機械系統也正在研發當中。
總結與展望
能保證L3及其以上無人駕駛功能的駕駛員輔助系統,至少需要三種傳感器系統:攝像頭、雷達和激光探測。每種傳感器都應當有好幾個,分布在汽車的不同位置上,共同工作。盡管如今已經有了所需的半導體技術和攝像頭及雷達傳感器開發技術,但激光雷達系統的發展情況在技術和商業問題上仍然是當前最大和最不穩定的挑戰。
很難說我們討論的哪一種系統會流行起來,但從半導體的角度,固態激光雷達系統的方法看起來似乎是最好的。
評論
查看更多