色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

打破端到端自動駕駛感知和規(guī)劃的耦合障礙!

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-08-07 15:07 ? 次閱讀

0. 筆者個人體會

端到端自動駕駛一直是研究的重點和熱點,輸入RGB圖像或雷達點云,輸出自車的控制信號或運動規(guī)劃。但目前很多工作都是只做感知或者只做規(guī)劃,很重要的一個原因是端到端模型訓練時間太長了,而且最終學習到的控制信號也未見得多好?,F(xiàn)有的教師-學生范式還可能產(chǎn)生很嚴重的Causal Confusion問題。

今天要為大家介紹的就是ICCV 2023開源的工作DriveAdapter,解決了自動駕駛感知和規(guī)劃的耦合障礙,來源于上交和上海AI Lab,這里不得不慨嘆AI Lab實在高產(chǎn),剛剛用UniAD拿了CVPR的Best Paper就又產(chǎn)出了新成果。

DriveAdapter的做法是,用學生模型來感知,用教師模型來規(guī)劃,并且引入新的適配器和特征對齊損失來打破感知和規(guī)劃的耦合障礙!想法很新穎!

1. 問題引出

最直接的端到端自動駕駛框架,就是輸入RGB圖,利用強化學習直接輸出控制信號(a)。但這樣做效率太低了,在使用預訓練模型的情況下甚至都需要20天才能收斂!

8df6a13a-34ad-11ee-9e74-dac502259ad0.png

現(xiàn)在主流框架基本都是教師-學生模型,也就是說首先用強化學習訓練一個復雜的教師模型,然后用原始的傳感器數(shù)據(jù)讓小模型去模仿教師模型的行為(Behavior Cloning)。這種范式的效率非常高!但是仍然有很大的問題,也就是由行為克隆引發(fā)的因果混淆問題(Causal Confusion)。這里也推薦「3D視覺工坊」新課程《深度剖析面向自動駕駛領(lǐng)域的車載傳感器空間同步(標定)》。

聽起來很繞口,那么這到底是個啥?

舉個簡單例子:

當車輛位于十字路口時,自車的路徑實際上應(yīng)該是根據(jù)信號燈來決定的。但是在圖像上信號燈很小,周圍車輛很大。所以學生模型從教師學習到的實際情況很可能是:根據(jù)其他車輛的行為來規(guī)劃自車。那么如果自車處在路口第一輛車的位置,很有可能自車會永遠不動!

8e0b8a82-34ad-11ee-9e74-dac502259ad0.png

那么DriveAdapter這個方案打算怎么做呢?

簡單來說,它是解耦了學生和教師模型。學生負責進行感知,輸入RGB圖像,輸出BEV分割圖。然后BEV分割圖輸送給教師,進行自車的路徑規(guī)劃!

8e3764cc-34ad-11ee-9e74-dac502259ad0.png

當然里面還有特別多的細節(jié),下面我們一起來看具體的論文信息。

2. 論文信息

標題:DriveAdapter: Breaking the Coupling Barrier of Perception and Planning in End-to-End Autonomous Driving

作者:Xiaosong Jia, Yulu Gao, Li Chen, Junchi Yan, Patrick Langechuan Liu, Hongyang Li

機構(gòu):上海交通大學、上海AI Lab、北航、安克創(chuàng)新

原文鏈接:https://arxiv.org/abs/2308.00398

代碼鏈接:https://github.com/OpenDriveLab/DriveAdapter

3. 摘要

端到端的自動駕駛旨在構(gòu)建一個以原始傳感器數(shù)據(jù)為輸入,直接輸出自車的規(guī)劃軌跡或控制信號的完全可微系統(tǒng)。最先進的方法通常遵循"教師-學生"范式。該模型使用權(quán)限信息(周圍智能體和地圖要素的真實情況)來學習駕駛策略。學生模型只具有獲取原始傳感器數(shù)據(jù)的權(quán)限,并對教師模型采集的數(shù)據(jù)進行行為克隆。通過在規(guī)劃學習過程中消除感知部分的噪聲,與那些耦合的工作相比,最先進的工作可以用更少的數(shù)據(jù)獲得更好的性能。

然而,在當前的教師-學生范式下,學生模型仍然需要從頭開始學習一個規(guī)劃頭,由于原始傳感器輸入的冗余和噪聲性質(zhì)以及行為克隆的偶然混淆問題,這可能具有挑戰(zhàn)性。在這項工作中,我們旨在探索在讓學生模型更專注于感知部分的同時,直接采用強教師模型進行規(guī)劃的可能性。我們發(fā)現(xiàn),即使配備了SOTA感知模型,直接讓學生模型學習教師模型所需的輸入也會導致較差的駕駛性能,這來自于預測的特權(quán)輸入與真實值之間的較大分布差距。

為此,我們提出了DriveAdapter,它在學生(感知)和教師(規(guī)劃)模塊之間使用具有特征對齊目標函數(shù)的適配器。此外,由于基于純學習的教師模型本身是不完美的,偶爾會破壞安全規(guī)則,我們針對那些不完美的教師特征提出了一種帶有掩碼的引導特征學習的方法,進一步將手工規(guī)則的先驗注入到學習過程中。DriveAdapter在多個基于CARLA的閉環(huán)仿真測試集上實現(xiàn)了SOTA性能。

4. 算法解析

DriveAdapter整體的思路非常清晰,學生模型將原始傳感器數(shù)據(jù)作為輸入,并提取BEV特征以供BEV分割和適配器模塊使用。之后,預測的BEV分割圖被饋送到凍結(jié)的教師模型和適配器模塊中。最后,適配器模塊接收來自具有GT教師特征的監(jiān)督,以及學生模型提供的BEV特征。對于教師模型引入規(guī)則的情況,對"對齊損失"應(yīng)用掩碼,并且所有適配器模塊的監(jiān)督來自動作損失的反向傳播。

8e6b9c24-34ad-11ee-9e74-dac502259ad0.png

4.1 感知學習的學生模型

學生模型將4個相機圖像和1個雷達點云作為輸入,目的是生成BEV的語義分割圖。具體流程是,首先使用BEVFusion將原始傳感器數(shù)據(jù)轉(zhuǎn)換成2D的BEV特征,然后使用Mask2former執(zhí)行語義分割。

但關(guān)鍵問題是,即使使用SOTA感知模塊,如果直接將預測的BEV分割饋送給教師模型,也并不會產(chǎn)生多好的預測和規(guī)劃效果。

這是因為啥呢?

首先就是語義分割的不準確問題。搞過語義分割的小伙伴肯定清楚,模型直接輸出的分割圖其實效果并不是太好,很多甚至需要經(jīng)過復雜的后處理才可以使用,分割的路線、車輛和信號燈非常不準,直接用的話噪聲非常大。畢竟教師模型是用BEV分割的Ground Truth來訓練的,直接用學生模型輸出的BEV分割肯定是效果非常差。

8e855cea-34ad-11ee-9e74-dac502259ad0.png

另一個原因就是教師模式的不完善。其實單獨使用教師模型來輸出運動規(guī)劃,其結(jié)果也是非常不準的,所以學術(shù)界很多做法都是加入一些手工設(shè)計的規(guī)則來進行二次約束,這樣來提高性能。

8eb2cfe0-34ad-11ee-9e74-dac502259ad0.png

解耦教師和學生模型的思路確實很棒,但是這兩個問題也確實很尖銳。那么怎么解決這兩個問題呢?這就要涉及到DriveAdapter的另一個關(guān)鍵模塊:適配器。

4.2 適配器模塊

為了獲得更低的成本和更好的適應(yīng)性,作者在學生和教師模型之間添加適配器。雖然感覺這個適配器長得有點像很多論文里提到的"即插即用"模塊?

適配器是分級插入的,第一層輸入是原始的BEV分割圖和學生模型的底層特征。之后,一方面不斷編碼BEV分割圖,另一方面使用卷積層來對BEV特征進行降采樣,來對其不同特征層之間的分辨率。

8ecc3fc0-34ad-11ee-9e74-dac502259ad0.png

那么,具體怎么彌補BEV分割圖和GT之間的差距呢?這里是為每個適配器都設(shè)計了一個特征對齊目標函數(shù)。實際上,相當于每個適配器模塊都使用了一個額外的信息源,并且用原始BEV特征來恢復教師模型所需的GT特征。通過這種方式,可以以逐層監(jiān)督的方式逐步縮小預測與真實特征之間的分布差距:

8ede3a4a-34ad-11ee-9e74-dac502259ad0.png

針對教師模型不完善的問題,作者是通過兩種方式將手工規(guī)則的先驗注入訓練過程:(1)特征對齊Mask:對于教師模型錯誤并被規(guī)則檢測的情況,由于教師模型中的原始特征導致錯誤的決策,就不讓適配器模塊恢復。(2)行動引導特征學習:計算模型預測和實際決策之間的損失,并通過凍結(jié)的教師模型和適配器模塊進行反向傳播。這里也推薦「3D視覺工坊」新課程《深度剖析面向自動駕駛領(lǐng)域的車載傳感器空間同步(標定)》。

5. 實驗結(jié)果

作者使用CARLA模擬器進行數(shù)據(jù)收集和閉環(huán)駕駛性能評估,每幀采集4臺相機和1臺激光雷達的原始數(shù)據(jù)。訓練是在Town01、Town03、Town04和Town06進行,總共189K幀。評估指標方面,用的是CARLA的官方指標,包括:**違規(guī)指數(shù)( IS )衡量沿途發(fā)生的違規(guī)行為數(shù)量,路徑完成度( RC )評估車輛完成路徑的百分比。駕駛得分( DS )**表示路線完成度和違規(guī)得分的乘積。

和其他SOTA方法的對比是在Town05 Long和Longest6序列上進行。可以發(fā)現(xiàn),DriveAdapter甚至可以與經(jīng)過10倍數(shù)據(jù)量訓練的模型相媲美,而在DriveAdapter也使用10倍數(shù)據(jù)以后,性能進一步提升,這其實是因為訓練更好得感知了紅燈。

8ef87b80-34ad-11ee-9e74-dac502259ad0.png

8f321ce6-34ad-11ee-9e74-dac502259ad0.png

兩個消融實驗,一方面對比了特征對齊損失、特征對齊Mask、行為引導損失,一方面對比了適配器的各個階段:

8f4248c8-34ad-11ee-9e74-dac502259ad0.png

8f5ee686-34ad-11ee-9e74-dac502259ad0.png

最后這個實驗很有意思,不知道讀者有沒有這樣的想法:"學生模型能不能不生成BEV分割,而是直接生成教師模型的中間特征圖,那么性能會不會不一樣?"。

8f7d31e0-34ad-11ee-9e74-dac502259ad0.png

實際上,隨著學生模型的學習目標變深,整個駕駛性能是增加的。作者認為,將特征直接輸入到教師模型的更深層會遇到更少的累積誤差。但有個極端例外,就是只做行為克隆,也就相當于完全不使用教師模型,這樣會遇到嚴重的慣性問題,導致路徑完成度( RC )較低。

那既然學習目標變深以后,性能會變好,為啥還要生成BEV分割呢?作者主要是考慮到,早期階段的特征包含更多關(guān)于場景的詳細信息,可能會對教師模型決策很重要,并且適配器可以緩解累積誤差。另一方面,語義分割可以直觀得調(diào)試學生模型的感知情況。

6. 總結(jié)

今天給大家介紹的是ICCV 2023的開源工作DriveAdapter,它很好得解耦了自動駕駛感知和規(guī)劃的行為克隆,提出了一種新的端到端范式。直接利用通過RL學習的教師模型中的駕駛知識,并且克服了感知不完善和教師模型不完善的問題。筆者覺得更重要的是整篇文章分析問題的思路很通順,讀起來很舒服。算法剛剛開源,感興趣的小伙伴趕快試試吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2552

    文章

    51382

    瀏覽量

    755845
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3298

    瀏覽量

    49078
  • 自動駕駛
    +關(guān)注

    關(guān)注

    784

    文章

    13923

    瀏覽量

    166835

原文標題:ICCV 2023開源!打破端到端自動駕駛感知和規(guī)劃的耦合障礙!

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    未來已來,多傳感器融合感知自動駕駛破局的關(guān)鍵

    巨大的進展;自動駕駛開始摒棄手動編碼規(guī)則和機器學習模型的方法,轉(zhuǎn)向全面采用的神經(jīng)網(wǎng)絡(luò)AI系統(tǒng),它能模仿學習人類司機的駕駛,遇到場景直接
    發(fā)表于 04-11 10:26

    細說關(guān)于自動駕駛那些事兒

    ADAS,若以NHTSA對自動駕駛的等級,大多介于第二第三級。不過,Google、福特和百度,則是希望跳過“半自動駕駛”的過程,直接研發(fā)等級最高的完全自動駕駛。NHTSA將
    發(fā)表于 05-15 17:49

    自動駕駛的到來

    得益于2025規(guī)劃,中國整車廠與Tier1目前對于自動駕駛有極大的熱忱及投入,有機會在這個領(lǐng)域?qū)崿F(xiàn)彎道超車。目前的顧慮在于法規(guī)政策的制定,以及中國特色的交通情況帶給自動駕駛的挑戰(zhàn)。安全問題  目前主要
    發(fā)表于 06-08 15:25

    即插即用的自動駕駛LiDAR感知算法盒子 RS-Box

    ,即可快速、無縫地將激光雷達感知模塊嵌入自己的無人駕駛方案中,真正實現(xiàn)“一鍵獲得自動駕駛激光雷達環(huán)境感知能力”。RS-BoxLiDAR
    發(fā)表于 12-15 14:20

    自動駕駛技術(shù)的實現(xiàn)

    的帶寬有了更高的要求。從而使用以太網(wǎng)技術(shù)及中央域控制(Domain)和區(qū)域控制(Zonal)架構(gòu)是下一代車載網(wǎng)絡(luò)的發(fā)展方向。然而對于自動駕駛技術(shù)的實現(xiàn),涉及感知、規(guī)劃、執(zhí)行三個層面。
    發(fā)表于 09-03 08:31

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計一個自動駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計一個自動駕駛模型?如何設(shè)計一個基于增強學習的自動駕駛決策系統(tǒng)?
    的頭像 發(fā)表于 04-29 16:44 ?4945次閱讀
    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計一個<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的<b class='flag-5'>自動駕駛</b>模型?

    自動駕駛綜述之定位、感知規(guī)劃常見算法匯總

    自駕車自動駕駛系統(tǒng)的體系結(jié)構(gòu)一般分為感知系統(tǒng)和決策系統(tǒng)。感知系統(tǒng)一般分為許多子系統(tǒng),負責自動駕駛汽車定位、靜態(tài) 障礙物測繪、移動
    發(fā)表于 06-02 16:11 ?0次下載
    <b class='flag-5'>自動駕駛</b>綜述之定位、<b class='flag-5'>感知</b>、<b class='flag-5'>規(guī)劃</b>常見算法匯總

    自動駕駛到底是什么?

    UniAD 統(tǒng)一自動駕駛關(guān)鍵任務(wù),但是的訓練難度極大,對數(shù)據(jù)的要求和工程能力的要求比常規(guī)的技術(shù)棧要高,但是由此帶來的全局一致性讓整個系統(tǒng)變得更加簡潔,也能夠防止某個模塊進入局部最
    發(fā)表于 06-28 14:47 ?3781次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>到底是什么?

    基于矢量化場景表征的自動駕駛算法框架

    在ICCV 2023上,地平線和華中科技大學提出基于矢量化場景表征的自動駕駛算法——VAD。VAD擯棄了柵格化表征,對整個駕駛場景進行
    發(fā)表于 08-31 09:28 ?1214次閱讀
    基于矢量化場景表征的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>算法框架

    理想汽車自動駕駛模型實現(xiàn)

    理想汽車在感知、跟蹤、預測、決策和規(guī)劃等方面都進行了模型化,最終實現(xiàn)了的模型。這種模型不僅完全模型化,還能夠虛擬化,即在模擬環(huán)境中進行
    發(fā)表于 04-12 12:17 ?484次閱讀
    理想汽車<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型實現(xiàn)

    理想汽車加速自動駕駛布局,成立“”實體組織

    近期,理想汽車在其智能駕駛領(lǐng)域邁出了重要一步,正式成立了專注于“自動駕駛”的實體組織,該組織規(guī)模超過200人,標志著理想在
    的頭像 發(fā)表于 07-17 15:42 ?1384次閱讀

    實現(xiàn)自動駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?824次閱讀
    實現(xiàn)<b class='flag-5'>自動駕駛</b>,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    Mobileye自動駕駛解決方案的深度解析

    強大的技術(shù)優(yōu)勢。 Mobileye的解決方案概述 1.1 什么是
    的頭像 發(fā)表于 10-17 09:35 ?439次閱讀
    Mobileye<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>解決方案的深度解析

    連接視覺語言大模型與自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復雜罕見的
    的頭像 發(fā)表于 11-07 15:15 ?313次閱讀
    連接視覺語言大模型與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>

    自動駕駛技術(shù)研究與分析

    編者語:「智駕最前沿」微信公眾號后臺回復:C-0450,獲取本文參考報告:《自動駕駛行業(yè)研究報告》pdf下載方式。 自動駕駛進入202
    的頭像 發(fā)表于 12-19 13:07 ?286次閱讀
    主站蜘蛛池模板: 99久热这里精品免费 | 99国产亚洲精品无码成人 | 日韩欧美中文字幕在线二视频 | 补课H湿 1V1 PLAY| 精品国产乱码久久久久久免费 | 日本888xxxx| 一品道门在线视频高清完整版 | 特级淫片大乳女子高清视频 | 涩涩免费视频软件 | 国产成人免费高清视频 | 一个人的视频在线观看免费观看 | 99热久久这里只有精品视频 | 国内精品视频在线播放一区 | 免费看到湿的小黄文软件APP | 芭乐草莓樱桃丝瓜18岁大全 | 猪蜜蜜网站在线观看电视剧 | 国产精品视频第一区二区三区 | 午夜向日葵视频在线观看 | 亚洲国产精品无码中文在线 | 无人区乱码1区2区3区网站 | 旧里番ovaの催○セイ活指导 | 亚洲福利精品电影在线观看 | 女女破视频在线观看 | 中文字幕人成人乱码亚洲影视S | 成人在线视频观看 | 人妻精品久久无码专区 | 在线观看亚洲免费视频 | 成人小视频在线观看 | 国产电影无码午夜在线播放 | 一抽一出BGM免费50分动漫 | 99视频福利| 久久视热频国只有精品 | 午夜影院一区二区三区 | 青柠在线观看免费全集 | 欧美精品一区二区三区视频 | 夜夜女人国产香蕉久久精品 | 浴室里强摁做开腿呻吟的漫画男男 | 亚洲男人天堂网 | 成人国产精品玖玖热色欲 | 天天影视网网色色欲 | 国产午夜福利片 |