上周,Apollo美研在桑尼維爾舉行了關(guān)于Apollo 2.5的Meetup。會上,Apollo美研團(tuán)隊的技術(shù)大牛與來自硅谷眾多的在校學(xué)生、車企等自動駕駛愛好者共同分享交流了Apollo 2.5相關(guān)的深度技術(shù)。沒能到達(dá)現(xiàn)場的國內(nèi)開發(fā)者可以通過以下視頻資料回顧相關(guān)技術(shù)干貨。
Apollo 2.5 Platform Overview
Jingao Wang
首先,Apollo平臺負(fù)責(zé)人王京傲為大家做了關(guān)于Apollo 2.5平臺的Overview,讓國外開發(fā)者進(jìn)一步了解Apollo 2.5。
Apollo 2.5 解鎖了限定區(qū)域視覺高速自動駕駛,為開發(fā)者提供了更多場景、更低成本、更高性能的能力支持,開放了視覺感知、實時相對地圖、高速規(guī)劃與控制三大能力以及更高效的開發(fā)工具。
目前在GitHub上有9000+開發(fā)者推薦Apollo,超過2000家合作伙伴使用Apollo,開發(fā)者在Apollo上已經(jīng)貢獻(xiàn)了20w+行代碼,越來越多的開發(fā)者通過Apollo搭建了屬于自己的自動駕駛系統(tǒng)。
此外,在場景應(yīng)用方面,Apollo 還可支持包括乘用車、卡車、巴士、物流車、掃路車等多種車型和應(yīng)用場景。
Vision-Based Perception forAutonomous Driving
Tae Eun
在Apollo 2.5中,基于攝像頭的感知,簡化了傳感器方案,增強(qiáng)了感知能力。在此次Meetup中,來自Apollo美研團(tuán)隊的高級架構(gòu)師Tae Eun分享了關(guān)于攝像頭的低成本視覺感知方案。
Apollo2.5 提供了多個集成式廣角攝像頭配合激光雷達(dá),毫米波雷達(dá)的方案。其中以單目廣角攝像頭和毫米波雷達(dá)的低成本方案,相比之前2.0中64線激光雷達(dá)+廣角攝像頭+毫米波雷達(dá)的硬件配置方案,成本降低了90%。這種大幅度的成本節(jié)省,加上高效率的感知算法,將大大有助于測試有限區(qū)域的高速公路駕駛。
此外,傳感器的減少并不會降低感知的性能。在Apollo 2.5中我們使用了基于Yolo的多任務(wù)深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)來進(jìn)行障礙物和車道線的檢測及分類。
感知輸入是從攝像頭捕捉的視頻幀,我們可以將其視為一系列的靜態(tài)2D圖像,所以如何從這些視圖中計算出障礙物的3D屬性便是關(guān)鍵問題。在我們的方法中,我們首先使用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)來識別2D圖像中的障礙物,通過獲得的邊界框和障礙物的觀察角度。然后,我們可以使用line-segment算法,用攝像頭射線和攝像頭的校準(zhǔn)來重建3D障礙物。整個過程可以在小于0.1毫秒內(nèi)完成。
最后,我們來看看處理后的車道線邏輯。首先,用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)掃描2D圖像的每個像素以確定它是否屬于行車道,以便生成像素化的車道線。然后,使用連接分析,我們可以將相鄰的車道線像素連接起來完成整個車道線段的連接,通過多項式擬合確保車道線的平滑性。根據(jù)當(dāng)前車輛的位置,我們可以推導(dǎo)出車道線的語義含義:無論是左,右或相鄰的車道線。然后將車道線轉(zhuǎn)換到車輛坐標(biāo)系中,發(fā)送給其他需要的模塊。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4779瀏覽量
101054 -
自動駕駛
+關(guān)注
關(guān)注
784文章
13923瀏覽量
166844 -
Apollo
+關(guān)注
關(guān)注
5文章
342瀏覽量
18495
原文標(biāo)題:Apollo Meetup | Apollo 2.5平臺解析與自動駕駛視覺感知分享
文章出處:【微信號:Apollo_Developers,微信公眾號:Apollo開發(fā)者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論