色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ADAS要如何運(yùn)用深度學(xué)習(xí)?

電子工程師 ? 來源:網(wǎng)絡(luò)整理 ? 作者:工程師曾暄茗 ? 2018-07-15 11:28 ? 次閱讀

北京交通大學(xué)電子信息工程學(xué)院袁雪副教授給我們講解了在高級輔助駕駛系統(tǒng)(ADAS)中的多任務(wù)深度學(xué)習(xí)框架的應(yīng)用。

內(nèi)容提綱:

ADAS系統(tǒng)包括車輛檢測、行人檢測、交通標(biāo)志識別、車道線檢測等多種任務(wù),同時(shí),由于無人駕駛等應(yīng)用場景的要求,車載視覺系統(tǒng)還應(yīng)具備相應(yīng)速度快、精度高、任務(wù)多等要求。對于傳統(tǒng)的圖像檢測與識別框架而言,短時(shí)間內(nèi)同時(shí)完成多類的圖像分析任務(wù)是難以實(shí)現(xiàn)的。

袁雪副教授的項(xiàng)目組提出使用一個(gè)深度神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)交通場景中多任務(wù)處理的方法。其中交通場景的分析主要包括以下三個(gè)方面:大目標(biāo)檢測(車輛、行人和非機(jī)動(dòng)車),小目標(biāo)分類(交通標(biāo)志和紅綠燈)以及可行駛區(qū)域(道路和車道線)的分割。

這三類任務(wù)可以通過一個(gè)深度神經(jīng)網(wǎng)絡(luò)的前向傳播完成,這不僅可以提高系統(tǒng)的檢測速度,減少計(jì)算參數(shù),而且可以通過增加主干網(wǎng)絡(luò)的層數(shù)的方式提高檢測和分割精度。

以下為當(dāng)天分享的內(nèi)容總結(jié)。

圖文分享總結(jié)

一、任務(wù)分析

WHO在2009年統(tǒng)計(jì)的一個(gè)數(shù)據(jù)顯示,在全世界范圍內(nèi)每年由交通事故死亡的人數(shù)有123萬人。但是我們知道,在朝鮮戰(zhàn)爭中,整個(gè)戰(zhàn)爭死亡的人數(shù)也差不多一百多萬。也就是說,每年死于交通事故的人數(shù)差不多等于一次非常慘烈的戰(zhàn)爭的死亡人數(shù)了。根據(jù)WHO統(tǒng)計(jì),在全世界范圍內(nèi)每年由交通事故造成的死亡人數(shù)有123萬之多;而發(fā)生交通事故90%是由司機(jī)人為原因造成的,比如注意力不集中、超速、安全意識弱等等。所以目前減少交通事故的最主要途徑通過采用高級輔助駕駛系統(tǒng)(ADAS)就是減少認(rèn)為錯(cuò)誤。

對于ADAS系統(tǒng),基本上包括這些功能:夜視輔助、車道保持、司機(jī)提醒、防撞提醒、車道變換輔助、停車輔助、碰撞疏解、死角障礙物檢測、交通標(biāo)志識別、車道線偏移提醒、司機(jī)狀態(tài)監(jiān)測、遠(yuǎn)光燈輔助等。這些功能是ADAS所必備的。

為了實(shí)現(xiàn)這些功能,一般其傳感器需要包括視覺傳感器、超聲波傳感器、GPS&Map傳感器、Lidar傳感器、Radar傳感器,還有一些別的通信設(shè)備。但是我們在市面上看到的大多數(shù)傳感器其功能其實(shí)是比較少的,例如mobile I,它只有車道保持、交通標(biāo)志識別、前車監(jiān)測和距離監(jiān)測的功能,但并不全面。從廠家或者用戶的角度來說,自然我們希望能用最便宜的傳感器來完成更多ADAS的功能。最便宜的傳感器基本上就是視覺傳感器。所以我們設(shè)計(jì)方案時(shí)就想,能不能通過算法將視覺傳感器實(shí)現(xiàn)更多ADAS系統(tǒng)的功能呢?這就是我們整個(gè)研發(fā)的初衷。

此外,我們還需要考慮ADAS的一些特點(diǎn)。ADAS系統(tǒng)(包括無人駕駛)是在一個(gè)嵌入式平臺下進(jìn)行的,也就是說它的計(jì)算資源很少。那么我們也必須考慮如何在這樣一個(gè)計(jì)算資源非常少的基礎(chǔ)上,保證ADAS系統(tǒng)能夠快速且高精度地響應(yīng),同時(shí)還能保證多任務(wù)的需求。這是我們第二個(gè)要考慮的問題。

ADAS要如何運(yùn)用深度學(xué)習(xí)?

為了解決以上兩個(gè)問題,我們首先把ADAS的任務(wù)分解一下。如圖所示,我們將ADAS的任務(wù)分解成目標(biāo)檢測與識別、圖像分割、攝像機(jī)成像目標(biāo)跟蹤、圖像分割。我們過去一年多的研發(fā)工作其實(shí)就是,用一個(gè)深度學(xué)習(xí)框架來同時(shí)實(shí)現(xiàn)上述這四個(gè)的功能。

對于一個(gè)前向傳播的網(wǎng)絡(luò),其計(jì)算量和計(jì)算時(shí)間主要取決于它的參數(shù)數(shù)量,而80%的參數(shù)都來自全鏈接層,所以我們的第一個(gè)想法就是去掉全鏈接層。其次,網(wǎng)絡(luò)越深,它的參數(shù)就會越多所以如果我們把目標(biāo)檢測與識別、圖像分割、攝像機(jī)成像目標(biāo)跟蹤、圖像分割做成四個(gè)網(wǎng)絡(luò)的話,就會有X4倍的參數(shù)。

ADAS要如何運(yùn)用深度學(xué)習(xí)?

所以針對這兩個(gè)考量,我們用一個(gè)主干的網(wǎng)絡(luò)來做前面的運(yùn)算,然后在后面再根據(jù)具體的任務(wù)分成多個(gè)小的分支加到主干網(wǎng)絡(luò)上。這樣多個(gè)圖像處理的任務(wù)就可以通過一個(gè)主干網(wǎng)絡(luò)的前向傳播來完成了,其參數(shù)大大減少,計(jì)算速度也變的更快。同時(shí)我們也能實(shí)現(xiàn)多個(gè)任務(wù)同時(shí)進(jìn)行的需求。另外,在最后我們還可以將多個(gè)結(jié)果進(jìn)行融合,駕到訓(xùn)練過程的調(diào)整中,這樣就可以提高我們結(jié)果的可信性。

但是在這個(gè)過程中我們也碰到一些難點(diǎn)。第一個(gè)難點(diǎn)就是我們在同一個(gè)網(wǎng)絡(luò)中需要將較大的目標(biāo)(例如車輛)和較小的目標(biāo)(例如交通標(biāo)志)同時(shí)檢測出來。第二個(gè)難點(diǎn)是,測速測距時(shí)我們需要的目標(biāo)的位置是非常精確的,目前這個(gè)問題我們還沒有解決。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 無人駕駛
    +關(guān)注

    關(guān)注

    98

    文章

    4088

    瀏覽量

    120857
  • ADAS系統(tǒng)
    +關(guān)注

    關(guān)注

    4

    文章

    226

    瀏覽量

    25749
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5512

    瀏覽量

    121430
收藏 人收藏

    評論

    相關(guān)推薦

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-14 15:17 ?801次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速你的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?252次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?464次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?1108次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問題(一) Q:FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?現(xiàn)在用FPGA做深度學(xué)習(xí)加速成為一個(gè)熱門,深鑒科技,商湯,曠視科技等都有基于FPG
    發(fā)表于 09-27 20:53

    ADAS功能安全HiL仿真測試系統(tǒng)介紹#ADAS #VTHiL

    adas
    北匯信息POLELINK
    發(fā)布于 :2024年08月03日 20:07:34

    ADAS系統(tǒng)組成簡介#ADAS

    adas
    北匯信息POLELINK
    發(fā)布于 :2024年08月03日 20:05:37

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    時(shí)間序列分類(Time Series Classification, TSC)是機(jī)器學(xué)習(xí)深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動(dòng)識別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個(gè)領(lǐng)域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?1127次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,近年來在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-09 10:50 ?891次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?1029次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是模型智能的源泉。本文將從模型權(quán)重的定義、作用、優(yōu)化、管理以及應(yīng)用等多個(gè)方面,深入探討
    的頭像 發(fā)表于 07-04 11:49 ?1793次閱讀

    深度學(xué)習(xí)常用的Python庫

    深度學(xué)習(xí)作為人工智能的一個(gè)重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的庫支持,成為了深度學(xué)習(xí)研究和應(yīng)用的首選工具。
    的頭像 發(fā)表于 07-03 16:04 ?696次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器學(xué)習(xí)的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1512次閱讀

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度學(xué)習(xí)技術(shù),使得
    發(fā)表于 04-23 17:18 ?1354次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺、自然語言處理到自動(dòng)駕駛汽車等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?671次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?
    主站蜘蛛池模板: 2019午夜福利757视频第12集 | 久久AV亚洲精品一区无码网 | 精品久久伊人 | 91偷偷久久做嫩草电影院 | 快播看黄片| 亚洲精品久久久久AV无码 | 欧美videos人牛交 | 蜜桃成熟时2在线 | 久久精品视在线观看85 | 玩两个少妇女邻居 | 国产在线精品视频免费观看 | 美女被强奷到抽搐的动态图 | 高潮久久久久久久久不卡 | 伊人久久电影网 | 欧美伊人久久大香线蕉综合69 | 体内精69xxxxxx喷潮 | 男女牲交大战免费播放 | 91麻豆精品 | 亚洲欧洲无码AV在线观看你懂的 | 暖暖 免费 高清 日本视频大全 | 精品无码久久久久久久久 | 中国人泡妞xxxxxxxx19 | 好男人好资源视频高清 | 国产中文在线 | 中文无码字慕在线观看 | 久久精品免费观看久久 | 日韩欧美三区 | 麻豆精品一区二正一三区 | 午夜精品久久久久久影视riav | 国产成人mv 在线播放 | 717影院理论午夜伦不卡久久 | 美女脱18以下禁止看免费 | 久久精品美女久久 | 国产成人无码精品久久久影院 | 日日干夜夜爱 | 亚洲精品网址 | 久久激情网 | 国产精品永久AV无码视频 | 97视频视频人人碰视频 | 亚洲AV无码专区国产乱码网站 | 野花视频在线观看免费最新动漫 |