色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Jetbot智能車如何識別與周邊物體的距離

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達 ? 作者:NVIDIA英偉達 ? 2022-02-07 11:35 ? 次閱讀

避撞功能是 Jetbot 一開始最令人矚目的功能,因為這是所有小車都必須具備的最基本“自我保護”的能力,而 Jetbot 沒有任何距離傳感,只憑著一個 CSI 攝像頭就能完成這項任務(wù),對很多人來說是一件蠻神奇的事情,Jetbot 是如何識別與周邊物體的距離,來決定是繼續(xù)前進還是得轉(zhuǎn)向?

這里請大家先沉淀一下來思考,人腦是如何學(xué)習(xí)判斷前方的路是可以繼續(xù)前進?或是有障礙物、坑洞必須轉(zhuǎn)向?請先忘記您的成年人身份,試著模擬剛學(xué)會爬行的小嬰兒,如何逐步學(xué)習(xí)并建立這方面的“認知系統(tǒng)”呢?小嬰兒對前方的信息來源,有以下三個特點:

只有視覺(眼睛)的輸入

沒有距離的概念

缺乏物件的分類

在沒有其他干預(yù)的狀況下,小嬰兒必定得經(jīng)過不斷地碰撞與摔倒之后,自身防御系統(tǒng)會逐步學(xué)習(xí)并修正決策機制,這是動物界最原始的學(xué)習(xí)機制。小嬰兒在這個過程所接收的信息,就是沒有距離、沒有物件類別的最基本“圖像”而已。

到目前為止,Jetbot 的運作邏輯是最接近人類行進思維的一套智能無人車,因為我們并不需要去判斷與障礙物(或坑洞)之間的確實距離是多近,也不需要分辨前面障礙物是什么東西,就能下達“前進”或“轉(zhuǎn)向”的決策。

當我們安裝好 Jetbot 智能車與系統(tǒng)軟件之后,接下去就是為每個特定功能添加“深度學(xué)習(xí)”的智能識別技術(shù)進去。例如這個避障的應(yīng)用就只使用到最基礎(chǔ)的“圖像識別”能力,將 CSI 鏡頭的每幀畫面識別出“無阻礙(free)”與“有阻礙(blocked)”兩種狀態(tài),然后發(fā)出對應(yīng)指令去驅(qū)動電機執(zhí)行運動。

任何要添加深度學(xué)習(xí)的智能識別功能,都必須執(zhí)行以下三個步驟:

數(shù)據(jù)收集與整理

模型訓(xùn)練

執(zhí)行識別

這個避障功能的實驗代碼在 Jetbot 的 notebooks/collision_avoidance 下,里面有 8 個 .ipynb 文件,包括 1 個 data_collecton.ipynb、3 個 train_modelxxx.ipynb 與 4 個 live_demoxxx.ipynb,分別對應(yīng)上面所說的三個步驟。不過這些實驗代碼不需要全都用上,這里以 data_collecton.ipynb、train_model.ipynb 與 live_demo.ipynb 這三個最基本的代碼來做說明。

礙于篇幅問題,本文先帶著大家運行 live_demo.ipynb 代碼,去體驗一下 Jetbot 的避障功能,畢竟前面花了這么多時間與精力所組裝的系統(tǒng),先跑起來能獲得一些成就感之后,在下一篇文章里再說明比較枯燥的“數(shù)據(jù)收集與整理”、“模型訓(xùn)練”兩大步驟,這樣才算完成整個流程。

為了讓大家能夠先行體驗,這里提供原創(chuàng)團隊預(yù)訓(xùn)練的 best_model.pth 模型的鏈接,模型的訓(xùn)練方式會在下一篇文章里面說明,這里只管下載到 collision_avoidance 目錄下使用就行。文件鏈接如下:https://drive.google.com/file/d/1UsRax8bR3R-e-0-80KfH2zAt-IyRPtnW/view

由于我們未得到原創(chuàng)團隊的授權(quán),不能擅自下載這個存放在 Google 網(wǎng)盤上的文件,再分享給讀者下載,請大家能夠理解,這需要讀者請自行設(shè)法下載!

接下來開啟 notebooks/collision_avoidance/live_demo.ipynb 工作腳本,逐步執(zhí)行就能讓 Jetbot 小車執(zhí)行避障的功能。這里面主要分為以下三大部分:

1. 加載訓(xùn)練的模型:

這里關(guān)于深度學(xué)習(xí)的部分,全部使用 PyTorch 這個輕量級的框架,對于不熟悉的讀者來說,一開始的兩行代碼可能就已經(jīng)會產(chǎn)生不小的困擾,現(xiàn)在就簡單地逐行說明:

model = torchvision.models.alexnet(pretrained=False)

torchvision 是 PyTorch 里面專門用在視覺應(yīng)用的深度學(xué)習(xí)庫。

由于 PyTorch 內(nèi)建支持很多常用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),這里要使用深度卷積網(wǎng)絡(luò)始祖的 AlexNet,是因為前面提供下載連接的 best_model.pth 就是以 AlexNet 進行訓(xùn)練的圖像識別模型,因此這里對應(yīng)地用 torchvision.models.alexnet 函數(shù)來創(chuàng)建 model 對象。

由于現(xiàn)在是要執(zhí)行推理任務(wù)而不是做訓(xùn)練,因此 pretrained=FALSE

model.classifier[6] = torch.nn.Linear(model.classifier[6].in_features, 2)

這行代碼是至關(guān)重要的,首先在這行代碼上方加入“print(model.classifier)”,執(zhí)行后會看到以下的數(shù)據(jù)結(jié)構(gòu):

Sequential(

(0):Dropout(p=0.5, inplace=False)

(1):Linear(in_features=9216, out_features=4096, bias=True)

(2):ReLU(inplace=True)

(3):Dropout(p=0.5, inplace=False)

(4):Linear(in_features=4096, out_features=4096, bias=True)

(5):ReLU(inplace=True)

(6):Linear(in_features=4096, out_features=1000, bias=True)

)

這是 torchvision 里為 AlexNet 神經(jīng)網(wǎng)絡(luò)所預(yù)先定義的圖像分類功能的結(jié)構(gòu),其中 classifier[6].out_features 是模型最終的輸出數(shù)量,也就是分類數(shù)量。

因為 AlexNet 這個“深度神經(jīng)網(wǎng)絡(luò)”的鼻祖,是在 2012 年 ILSVRC 競賽中以 1000 分類的 ImageNet 數(shù)據(jù)集作為測試標,一舉拔得頭籌而開創(chuàng)“深度學(xué)習(xí)”新時代,這個 1000 分類的 AlexNet 圖像分類模型便成為這個領(lǐng)域的經(jīng)典之作,因此在標準的 AlexNet 模型中就保留“1000”這個數(shù)字作為基準。

在這個避障應(yīng)用中只使用“free”與“blockerd”兩個分類,因此需將 classifier[6] 的輸出類別數(shù)量調(diào)整為 2。請在代碼下方加入“print(model.classifier[6])”指令,打印出修改后的內(nèi)容,會看到“out_features”的值已經(jīng)變成 2。

注意:每種神經(jīng)網(wǎng)絡(luò)的處理方式是不同的,必須根據(jù)PyTorch的定義進行調(diào)整。

接下去三行代碼就是將模型文件加載進來,然后存到 CUDA 設(shè)備去,相對直觀:

model.load_state_dict(torch.load('best_model.pth'))

device = torch.device('cuda')

model = model.to(device)

2. 圖像格式轉(zhuǎn)換與正規(guī)化處理:

這幾乎是所有視覺類深度學(xué)習(xí)應(yīng)用中不可或缺的步驟,比較繁瑣的部分是不同神經(jīng)網(wǎng)絡(luò)存在細節(jié)上的差異,不過總的來說都脫離不了以下部分:

(1) 顏色空間轉(zhuǎn)換:所有神經(jīng)網(wǎng)絡(luò)都有自己定義的顏色空間格式,這里的 AlexNet 接受 RGB 數(shù)據(jù),而 CSI 攝像頭的格式為 BGR,這樣就必須進行格式轉(zhuǎn)換。這部分的處理幾乎都使用 OpenCV、numpy、PIL 這些強大的圖像處理庫就可以,下面這行代碼就是執(zhí)行這個功能。

x = cv2.cvtColor(x, cv2.COLOR_BGR2RGB)

(2) 張量順序轉(zhuǎn)換:將 HWC 順序轉(zhuǎn)換成 CHW 順序,下面指令就是執(zhí)行順序調(diào)整:

x = x.transpose((2, 0, 1))

(3) 正規(guī)化(normalization)處理:透過減去數(shù)據(jù)對應(yīng)維度的統(tǒng)計平均值,消除公共部分以凸顯個體之間的差異和特征的一種平穩(wěn)的分布計算。下面使用到的 [0.485, 0.456, 0.406]、[0.229, 0.224, 0.225] 兩組數(shù)據(jù),是業(yè)界經(jīng)過公認的經(jīng)驗數(shù)據(jù)。

mean = 255.0 * np.array([0.485, 0.456, 0.406])

stdev = 255.0 * np.array([0.229, 0.224, 0.225])

以上就是針對讀入圖像與模型之間對應(yīng)的一些轉(zhuǎn)換與計算的過程。

3. 創(chuàng)建控制元件并與攝像頭進行關(guān)聯(lián):

這里使用的 traitlets、IPython.display、ipwidgets.wiegets 與 jetbot 的 Camera 庫,在前面的文章里都說明過,比較重要的代碼如下:

(1) blocked_slider:用于顯示所獲取圖像是“blocked”類的幾率

blocked_slider = widgets.FloatSlider(description='blocked', min=0.0, max=1.0, orientation='vertical')

(2)speed_slider:用于調(diào)整 Jetbot 小車行進速度比

speed_slider = widgets.FloatSlider(description='speed', min=0.0, max=0.5, value=0.0, step=0.01, orientation='horizontal')

(3)camera_link:將攝像頭獲取圖像與 image 變量進行關(guān)聯(lián),并執(zhí)行格式轉(zhuǎn)換,才能在下方“display”指令之后,將攝像頭圖像動態(tài)地在 Jupyter 里顯示。

camera_link = traitlets.dlink((camera, 'value'), (image, 'value'), transform=bgr8_to_jpeg)

執(zhí)行這個階段代碼之后,下面應(yīng)該會出現(xiàn)如下圖左方的顯示框,試著在鏡頭前晃動手,看看畫面內(nèi)容是否產(chǎn)生變化?顯示框右邊與下方分別出現(xiàn)“blocked”與“speed”兩個滑塊,就是前面代碼所建立的小工具。

由于后面會使用到這個 “speed” 滑塊對 Jetbot 進行速度調(diào)整,并且我們也希望能實時觀察到攝像頭的畫面,因此建議用鼠標在畫面上點擊右鍵,點選上圖右方 “Create New View for Output” 去創(chuàng)建另一個獨立輸出框,然后進行位置調(diào)整如下圖,這樣就方便后續(xù)的操作。

4. 將控制元件與網(wǎng)絡(luò)模型、機電控制進行結(jié)合:

這是整個應(yīng)用中最核心的整合與計算過程,雖然代碼量不多,但信息量卻非常大,現(xiàn)在將這部分切割成幾個小塊來進行說明。

(1) 獲取圖像進行識別:

def update(change):

x = change['new']

x= preprocess(x)

y= model(x)

。。。

update({'new': camera.value})

這里首先定義 “update(change)”,在最下方用”update()”進行調(diào)用。

在“update({'new': camera.value})” 里使用{key:value}對的方式,將 camera.value 圖像內(nèi)容透過 change['new'] 傳給 x 變量;

將 x 變量傳入進行前面定義的 preprocess() 格式轉(zhuǎn)換與正規(guī)化處理;

y 是 model(x) 推理計算所得出來“blocked”與“free”兩個類的個別置信度,例如為[-0.9425, 0.4077];

(2) 將置信度轉(zhuǎn)換成[0,1]范圍的值:

y= F.softmax(y, dim=1)

prob_blocked= float(y.flatten()[0])

blocked_slider.value= prob_blocked

這里調(diào)用 torch.nn.functional.softmax 函數(shù),將所有類置信度的總和調(diào)整為1,如此一來前面的[-0.9425, 0.4077]就轉(zhuǎn)換成[0.2058, 0.7942];

作為行進的決策判斷,我們只要在兩個類別中挑選任何一個都可以,這里的代碼以“blocked”類幾率值作為判斷的依據(jù),因此取 float(y.flatten()[0]) 的值,如果改用“free”的幾率,就取 float(y.flatten()[1]) 的值。

然后將這個值同時也傳給 blocked_slider.value,現(xiàn)在看看前面輸出的 blocked 滑塊的值是否跟著產(chǎn)生變化!

(3)用 prob_blocked 值控制 Jetbot 行進:

ifprob_blocked < 0.5:

robot.forward(speed_slider.value)

else:

robot.left(speed_slider.value)

這里設(shè)定以 0.5 的幾率值為上限,當 prob_blocked < 0.5 時就前進,否則就原地左轉(zhuǎn),當然您也可以改成往右轉(zhuǎn)。

Jetbot 的行進速度由“speed_slider.value”變量所控制,這個數(shù)值得透過前面輸出畫面的 “speed” 滑塊去調(diào)整速度,最高值可以到 0.5,這是前面創(chuàng)建滑塊時就定義的。

執(zhí)行到這里的時候,正常狀況應(yīng)該如下:

攝像頭傳回的畫面是實時更新;

“blocked”滑塊固定在某個值;

現(xiàn)在調(diào)整“speed”滑塊的值并不會讓電機開始轉(zhuǎn)動。

現(xiàn)在可以將 Jetbot 小車放到您安排的執(zhí)行場地上,在執(zhí)行下一個步驟之前,建議透過“speed”滑塊將速度控制在 0.25 以下,避免啟動后造成 Jetbot 小車爆沖。

5. 啟動攝像頭的動態(tài)關(guān)聯(lián):

這里其實就只有下面這一道指令:

camera.observe(update, names='value')

這是由 jetbot 所提供的函數(shù),將 camera.value 與前面定義的 update(change) 進行動態(tài)連接上,現(xiàn)在 Jetbot 小車就應(yīng)該開始行動了,攝像頭里的畫面也在不停更新,右方“blocked”滑塊的值也在不斷跳動(更新),現(xiàn)在試著調(diào)整“speed”滑塊,是不是就能改變行進的速度了!

好了,現(xiàn)在就可以看看您 Jetbot 小車的避障功能執(zhí)行的如何?如果想停止工作的話,就繼續(xù)往下執(zhí)行暫停的指令就可以。

最后需要說明的,假如您的避障功能執(zhí)行的不是太好,例如無法順利識別一些障礙物或坑洞的話,通常是因為您的測試場所或者使用的攝像頭規(guī)格(廣角),與原廠提供的模型數(shù)據(jù)有比較大的差異,甚至場地明暗度也會有影響,如果測試效果不如預(yù)期的話,就得自己重頭收集數(shù)據(jù)并重新訓(xùn)練模型,這才是解決問題的根本之道。

原文標題:NVIDIA Jetson Nano 2GB 系列文章(49):智能避撞之現(xiàn)場演示

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5075

    瀏覽量

    103527
  • 鏡頭
    +關(guān)注

    關(guān)注

    2

    文章

    511

    瀏覽量

    25694
  • 智能識別
    +關(guān)注

    關(guān)注

    0

    文章

    202

    瀏覽量

    18151

原文標題:NVIDIA Jetson Nano 2GB 系列文章(49):智能避撞之現(xiàn)場演示

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    面向教學(xué)科研的智能車設(shè)計及實踐實驗室

    在汽車行業(yè)更加注重崗位技能與創(chuàng)新性思維的大背景下,高校教育/科研需要更加注重相關(guān)技能的培養(yǎng)。經(jīng)緯恒潤根據(jù)高校及科研機構(gòu)當前缺少實踐內(nèi)容支撐,技術(shù)與主流技術(shù)不匹配等痛點,推出智能車設(shè)計與實踐實驗室方案。
    的頭像 發(fā)表于 01-15 14:36 ?753次閱讀
    面向教學(xué)科研的<b class='flag-5'>智能車</b>設(shè)計及實踐實驗室

    智能車路協(xié)同試驗開發(fā)服務(wù)

    經(jīng)緯恒潤推出的智能車路協(xié)同試驗能夠提供智能駕駛樣智能駕駛域控制器及V2X設(shè)備,可以滿足
    的頭像 發(fā)表于 12-17 10:03 ?418次閱讀
    <b class='flag-5'>智能車</b>路協(xié)同試驗<b class='flag-5'>車</b>開發(fā)服務(wù)

    AI智能識別監(jiān)測攝像機

    隨著人工智能技術(shù)的飛速發(fā)展,AI智能識別監(jiān)測攝像機逐漸成為各行各業(yè)安全管理的重要工具。這種高科技設(shè)備不僅具備傳統(tǒng)監(jiān)控攝像機的基本功能,還通過深度學(xué)習(xí)和圖像處理等先進技術(shù),實現(xiàn)了對人、
    的頭像 發(fā)表于 11-28 10:39 ?323次閱讀
    AI<b class='flag-5'>智能</b><b class='flag-5'>識別</b>監(jiān)測攝像機

    復(fù)雜環(huán)境下多無人智能車輛協(xié)同調(diào)控

    摘要: 該文對多無人智能車以領(lǐng)航-跟隨法在復(fù)雜環(huán)境下運動的編隊控制問題進行了探討,通過采用閉環(huán)控制律設(shè)計了一種編隊控制器和編隊控制方案,該編隊控制器的優(yōu)點在于其主要考慮智能車之間的距離和角度,同時
    的頭像 發(fā)表于 11-16 10:12 ?494次閱讀
    復(fù)雜環(huán)境下多無人<b class='flag-5'>智能車</b>輛協(xié)同調(diào)控

    物體識別桌 AR物體識互動桌 電容屏實物識別漫游桌

    在這個科技發(fā)達的時代,AR增強技術(shù)也在迅速發(fā)展,在展廳展館中發(fā)光發(fā)熱,帶來了創(chuàng)意無限的互動展示效果,AR技術(shù)結(jié)合物體識別技術(shù)打造的AR物體識別桌,讓游客有了全新的體驗,通過新穎的人機交
    的頭像 發(fā)表于 10-21 17:44 ?217次閱讀

    物體識別交互軟件 AR實物識別桌軟件 電容物體識別

    物體識別交互軟件是一種新型的展示互動設(shè)備,其采用Unity3D技術(shù)開發(fā),還運用物體識別技術(shù)、多媒體技術(shù)等現(xiàn)代先進技術(shù)。軟件擁有強大的互動性和展示效果,有效提升了展品宣傳效果,讓觀眾了解
    的頭像 發(fā)表于 10-16 17:22 ?271次閱讀

    毫米波雷達傳感器:物體距離間的關(guān)系

    電子發(fā)燒友網(wǎng)站提供《毫米波雷達傳感器:物體距離間的關(guān)系.pdf》資料免費下載
    發(fā)表于 09-21 10:11 ?0次下載
    毫米波雷達傳感器:<b class='flag-5'>物體</b>與<b class='flag-5'>距離</b>間的關(guān)系

    20.0-電磁桿的組裝和實物介紹“這個是就是你想要的“-智能車電磁組 電磁循跡小車

    電子設(shè)計大賽20.0-電磁桿的組裝和實物介紹“這個是就是你想要的“-智能車電磁組 電磁循跡小車 電磁循跡 電磁循跡小車代碼 電磁桿的制作 電磁桿原理圖PCB設(shè)計
    的頭像 發(fā)表于 08-20 11:07 ?492次閱讀
    20.0-電磁桿的組裝和實物介紹“這個是就是你想要的“-<b class='flag-5'>智能車</b>電磁組 電磁循跡小車

    20.3-使用兩個通道進行電磁循跡 智能車競賽 電磁桿原理圖 電磁循跡小車 STM32電磁小車 電磁循跡算法

    20.3-使用兩個通道進行電磁循跡 智能車競賽 電磁桿原理圖 電磁循跡小車 智能車電磁組 STM32電磁小車 電磁循跡小車 電磁循跡算法 智能車環(huán)島 智能車比賽規(guī)則 歸一化處理 差比和
    的頭像 發(fā)表于 08-20 10:56 ?905次閱讀
    20.3-使用兩個通道進行電磁循跡 <b class='flag-5'>智能車</b>競賽 電磁桿原理圖 電磁循跡小車 STM32電磁小車 電磁循跡算法

    20.2-電磁桿在磁軌道的測試 零基礎(chǔ)入門智能車競賽 STM32電磁小車

    20.2-電磁桿在磁軌道的測試 零基礎(chǔ)入門智能車競賽 智能車競賽 電磁桿原理圖 電磁循跡小車 智能車電磁組 STM32電磁小車 電磁循跡小車 電磁循跡算法 智能車環(huán)島
    的頭像 發(fā)表于 08-20 10:52 ?700次閱讀
    20.2-電磁桿在磁軌道的測試 零基礎(chǔ)入門<b class='flag-5'>智能車</b>競賽 STM32電磁小車

    什么是智能車間和智能工廠 它們有什么區(qū)別

    智能車間和智能工廠是工業(yè)4.0時代的產(chǎn)物,它們代表了制造業(yè)的數(shù)字化、智能化和自動化。雖然它們在很多方面有相似之處,但它們之間還是存在一些區(qū)別。本文將詳細介紹智能車間和
    的頭像 發(fā)表于 06-07 15:15 ?2539次閱讀

    小米之后,做手機的魅族也造了 搭載FlymeAuto智能車機系統(tǒng)

    小米之后,做手機的魅族也造了 搭載FlymeAuto智能車機系統(tǒng) 小米汽車在推出小米SU7之后訂單火爆,似乎有人坐不住了,魅族也來造了。 據(jù)魅族無界智行網(wǎng)站顯示,魅族旗下首款車型或疑似命名為“魅
    的頭像 發(fā)表于 05-15 16:40 ?1447次閱讀

    Meta探索開發(fā)AI耳機:識別物體和翻譯外語

    據(jù)外媒The Information透露,F(xiàn)acebook母公司Meta正積極研究研發(fā)配備攝像頭的人工智能耳機,旨在實現(xiàn)物體識別與外語實時翻譯功能。
    的頭像 發(fā)表于 05-14 14:26 ?545次閱讀

    黑芝麻智能與一汽紅旗達成武當系列C1200家族智能車控項目合作

    基于武當系列C1200家族,一汽紅旗將打造高性價比的單芯片智能車控平臺方案,產(chǎn)品將覆蓋智能駕駛、整車數(shù)據(jù)交換及控制功能。 4月 25 日,第十八屆北京國際汽車展覽會拉開帷幕,在此次車展上,黑芝麻智能
    的頭像 發(fā)表于 04-26 10:05 ?960次閱讀
    黑芝麻<b class='flag-5'>智能</b>與一汽紅旗達成武當系列C1200家族<b class='flag-5'>智能車</b>控項目合作

    ROS系統(tǒng)的智能車開發(fā)-基于米爾芯馳MYD-JD9X開發(fā)板

    本篇測評由電子工程世界的優(yōu)秀測評者“mameng”提供。本文將介紹基于米爾電子MYD-JD9X開發(fā)板的ROS系統(tǒng)智能車開發(fā)。目前實現(xiàn)ROS的方式主要有兩種:Ubuntu系統(tǒng)+ROS;Ubuntu系統(tǒng)+docker+ROS鏡像;使用do
    的頭像 發(fā)表于 01-26 08:01 ?973次閱讀
    ROS系統(tǒng)的<b class='flag-5'>智能車</b>開發(fā)-基于米爾芯馳MYD-JD9X開發(fā)板
    主站蜘蛛池模板: 九九久久久2| 诱人的女邻居9中文观看 | 伦理片在线线手机版韩国免费观看 | 国产人妻777人伦精品HD | 怡春院国产精品视频 | 国产亚洲欧洲日韩在线观看 | 久久免费精品视频 | 男插女高潮一区二区 | 国产午夜AV无码无片久久96 | 午夜福利在线观看6080 | 狠狠色狠狠色综合曰曰 | 男宿舍里的呻吟h | 18日本人XXXXXX18 | 欧美xxxxx九色视频免费观看 | 久久久久久久久女黄 | 文中字幕一区二区三区视频播放 | 日本人作爰啪啪全过程 | 中文亚洲大香伊蕉不卡一区 | 欧美高跟镣铐bdsm视频 | 中文字幕在线视频在线看 | 小夫妻天天恶战 | 人性本色联盟 | 纯肉合集(高H) | 我就去色色 | 国产 亚洲 中文字幕 在线 | 老奶奶50p | 亚洲 日韩 欧美 国产专区 | 国产精彩视频在线 | 和尚轮流澡到高潮H | 美女被黑人巨大进入 | 亚洲精品嫩草AV在线观看 | 久久噜国产精品拍拍拍拍 | 无码国产成人777爽死 | 亚洲黄色在线播放 | 天天爽夜夜爽夜夜爽 | 国产精品系列在线观看 | 一抽一出BGM免费50分动漫 | 含羞草最新版本 | 男生J桶进女人P又色又爽又黄 | 天天国产在线精品亚洲 | 国产精品日本不卡一区二区 |