色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

伯克利的研究人員提出了一種通用的自適應(yīng)感知方法AdaSearch

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-11-24 09:14 ? 次閱讀

編者按:在自適應(yīng)搜索問題中,經(jīng)常會(huì)需要機(jī)器人在很強(qiáng)的背景干擾情況下定位目標(biāo)位置。在本文中,伯克利的研究人員提出了一種通用的自適應(yīng)感知方法AdaSearch,能快速定位目標(biāo)點(diǎn)。以下是論智對(duì)該成果的編譯。

機(jī)器學(xué)習(xí)的很多任務(wù)中,常見的有根據(jù)固定、預(yù)先收集好的數(shù)據(jù)集回答問題。但是在一些應(yīng)用中,我們沒有先驗(yàn)數(shù)據(jù),必須自己收集回答問題所需要的數(shù)據(jù),例如在環(huán)境污染監(jiān)控和人口普查過程中常出現(xiàn)這種情況。自己收集數(shù)據(jù)則要求我們將注意力放在最相關(guān)的信息源上,但是想確定哪些信息源會(huì)得到有用的結(jié)果則是很困難的。另外,當(dāng)實(shí)體收集數(shù)據(jù)時(shí)(例如機(jī)器人、衛(wèi)星或人類),我們必須對(duì)測(cè)量方法進(jìn)行規(guī)劃,盡量減少智能體隨時(shí)間移動(dòng)所造成的成本增加。我們將這種抽象的問題稱為“具身自適應(yīng)感知(embodied adaptive sensing)”。

針對(duì)這一問題,我們提出了新的解決方法,其中機(jī)器人必須穿越它所在的環(huán)境后確定位置或目標(biāo)物體。自適應(yīng)感知涵蓋了機(jī)器人研究中的很多問題,例如快速定位污染物或放射性資源的泄漏、在搜救中找尋被困者。在這些情況下,設(shè)計(jì)一種能盡快返回正確結(jié)果的感知軌跡是很重要的。

本文我們以放射物泄漏問題(RSS)為例,無人機(jī)需要確定環(huán)境中k-最大的放射性輻射源,k是用戶定義的參數(shù)。RSS是自適應(yīng)感知問題中非常有趣的案例,因?yàn)槠渲袝?huì)遇到多種復(fù)雜的背景噪聲(放射源周圍有很多放射性物質(zhì))。

于是,我們提出了AdaSearch,這是一種用于通用自適應(yīng)感知問題的連續(xù)消除式的框架,我們?cè)诜派湓磳ふ业沫h(huán)境下測(cè)試它。AdaSearch在環(huán)境中的每一點(diǎn)都能將泄漏率控制在置信區(qū)間中。利用這些置信區(qū)間,算法經(jīng)過迭代確定了一系列可能泄漏點(diǎn),最終選出唯一的一個(gè),清除掉其他的。

將具身搜索看作多重假設(shè)的測(cè)試場(chǎng)景

傳統(tǒng)上,機(jī)器人領(lǐng)域?qū)⒕呱硭阉鳎╡mbodied search)看作持續(xù)的運(yùn)動(dòng)計(jì)劃問題,其中機(jī)器人必須平衡環(huán)境探索和對(duì)高效軌跡的選擇。這就催生了既可以進(jìn)行路線優(yōu)化,又可以進(jìn)行環(huán)境探索的方法,可以用滾動(dòng)時(shí)域控制(receding horizon control)進(jìn)行優(yōu)化。而我們通過假設(shè)檢驗(yàn)測(cè)試,將該問題看作序列最佳動(dòng)作定義。

在假設(shè)檢驗(yàn)測(cè)試中,它的目標(biāo)是在多種分散問題上得出結(jié)論。給定智能體一系列測(cè)量動(dòng)作N,每個(gè)都能根據(jù)固定分布生成觀察結(jié)果。

智能體的目標(biāo)是學(xué)習(xí)這些N個(gè)觀察分布中的預(yù)指定特征。例如,我們以向新客戶展示產(chǎn)品A或產(chǎn)品B為例,記錄他們對(duì)該產(chǎn)品的評(píng)價(jià),從而表示統(tǒng)計(jì)學(xué)中的A/B測(cè)試。這里的N=2,因?yàn)橹挥袃蓚€(gè)動(dòng)作:展示A和展示B。而我們要研究的目標(biāo)特征就是哪個(gè)產(chǎn)品更受歡迎。根據(jù)我們收集到的偏好信息,對(duì)這些樣本以及置信區(qū)間進(jìn)行跟蹤記錄,分別用置信下限和上限對(duì)產(chǎn)品進(jìn)行定義。隨著收集的評(píng)價(jià)越多,我們對(duì)每個(gè)產(chǎn)品的偏好估計(jì)就越準(zhǔn)確。最終可以用一個(gè)結(jié)論來定義B比A更受歡迎:如果B的置信下限比A的置信上限還要高,那么我們可以認(rèn)為B比A更受歡迎。

而在環(huán)境感知的情況下,每個(gè)動(dòng)作都要從一定位置和方向讀取傳感器。通常來說,智能體的目標(biāo)是確定哪個(gè)方向能測(cè)量出最多的觀測(cè)信號(hào),或者哪一系列的k動(dòng)作能得到最大的平均觀測(cè)。為了這一目標(biāo),智能體可能會(huì)按順序選擇動(dòng)作,通過此前的觀察選擇信息量更多的動(dòng)作。

乍一看,序列最佳動(dòng)作確定可能對(duì)移動(dòng)的具身感知智能體來說太抽象了。智能體完全可以不考慮潛在成本隨機(jī)選擇動(dòng)作。但是,抽象的動(dòng)作確定是非常強(qiáng)大的。通過精準(zhǔn)的統(tǒng)計(jì)語言實(shí)現(xiàn)具身搜索問題,我們提出了與每種感知?jiǎng)幼鞣浅O嚓P(guān),且置信度很高的觀察方法,確定了未來要做的一系列動(dòng)作。

我們提出的AdaSearch用序列最佳動(dòng)作定義得到的置信區(qū)間和全局軌跡規(guī)劃,實(shí)現(xiàn)了漸進(jìn)最優(yōu)的測(cè)量復(fù)雜度,并能有效的分?jǐn)傔\(yùn)動(dòng)成本。

放射源尋找

為了驗(yàn)證它的效果,我們會(huì)用AdaSearch尋找放射性元素唯一一個(gè)泄漏點(diǎn)。我們將環(huán)境模擬成一個(gè)平面網(wǎng)格,如下所示。其中的紅點(diǎn)是放射性元素集中的區(qū)域。但是定位這一點(diǎn)非常難,因?yàn)閭鞲衅鲿?huì)被其他紫色的點(diǎn)(背景輻射)干擾。信息的收集由配有傳感器的無人機(jī)進(jìn)行,目標(biāo)就是設(shè)計(jì)一個(gè)路線,我們能通過傳感器收集來的觀測(cè)信息,盡快定位放射點(diǎn)的位置。

AdaSearch

我們的AdaSearch算法結(jié)合了全局收斂計(jì)劃和自適應(yīng)感知。在無人機(jī)第一次通過網(wǎng)格時(shí),會(huì)先均勻地收集環(huán)境信息。

第一次觀察后,我們能取消一些明顯不合適的區(qū)域。如果在平均值周圍的置信上限小于任何區(qū)間的最大下限,該點(diǎn)則會(huì)被消除,表示該點(diǎn)不是目標(biāo)區(qū)域。

在下一次探索,AdaSearch會(huì)更仔細(xì)地搜索剩余點(diǎn),直到找到目標(biāo)。

Baseline

我們將AdaSearch和經(jīng)過相同案例訓(xùn)練的信息最大化方法——InfoMax進(jìn)行比較。但不幸的是,對(duì)于大型空間的搜索,實(shí)時(shí)計(jì)算無法支持路線規(guī)劃或者參數(shù)化。這可能導(dǎo)致算法變得非常貪婪,會(huì)花大量時(shí)間找尋錯(cuò)誤的原因。

為了區(qū)分我們的置信區(qū)間所帶來的影響和全局規(guī)劃啟發(fā)法,我們用簡(jiǎn)單的全局規(guī)劃方法——NaiveSearch作為第二種baseline。這種方法統(tǒng)一地對(duì)網(wǎng)格采樣,在每個(gè)單元格上都花費(fèi)同樣時(shí)間。

結(jié)果

我們?cè)?4×64米的網(wǎng)格上,用4米的分辨率實(shí)現(xiàn)了三種算法,模擬了放射性源尋找的實(shí)例。結(jié)果我們觀察到,AdaSearch通常比NaiveSearch和InfoMax更快完成。隨著不斷增加背景輻射的水平,NaiveSearch的運(yùn)行時(shí)間越來越慢,但AdaSearch的變化卻不大。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28632

    瀏覽量

    208025
  • 無人機(jī)
    +關(guān)注

    關(guān)注

    230

    文章

    10515

    瀏覽量

    181873
  • 智能體
    +關(guān)注

    關(guān)注

    1

    文章

    164

    瀏覽量

    10606

原文標(biāo)題:AdaSearch:用連續(xù)消除法實(shí)現(xiàn)自適應(yīng)感知,快速精準(zhǔn)定位

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    美中聯(lián)合研制出最小半導(dǎo)體激光器

    【摘要】:<正>美國(guó)加州大學(xué)伯克利分校和北京大學(xué)的研究人員聯(lián)合研制出世界最小的半導(dǎo)體激光器。研究人員研制了款高增益硫化鎘納米線,然后將納米線與銀金屬相隔5 nm,激光
    發(fā)表于 04-24 10:11

    一種使用鄰接信息的自適應(yīng)膚色檢測(cè)方法

    本文提出了一種使用鄰接信息的自適應(yīng)膚色檢測(cè)方法。先在HSV 空間對(duì)圖像使用SPDH 方法以尋找最優(yōu)的膚色閾值并以此對(duì)進(jìn)行初步膚色分割;然后再
    發(fā)表于 08-15 11:41 ?8次下載

    伯克利博士論文:DC-DC轉(zhuǎn)換器

    伯克利博士的論文,關(guān)于DC-DC轉(zhuǎn)換器的理解介紹和應(yīng)用分析。
    發(fā)表于 09-29 18:13 ?103次下載
    <b class='flag-5'>伯克利</b>博士論文:DC-DC轉(zhuǎn)換器

    一種基于智能終端的環(huán)境與接近度感知方法

    提出一種基于智能終端的環(huán)境與接近度感知方法。首先,基于智能終端多種內(nèi)置傳感器采集的環(huán)境數(shù)據(jù),提出一種環(huán)境
    發(fā)表于 11-16 11:17 ?7次下載
    <b class='flag-5'>一種</b>基于智能終端的環(huán)境與接近度<b class='flag-5'>感知方法</b>

    研究人員開發(fā)出一種可監(jiān)測(cè)消化系統(tǒng)和胃部活動(dòng)的物聯(lián)網(wǎng)可穿戴系統(tǒng)

    來自加利福尼亞大學(xué)伯克利分校和加州大學(xué)圣地亞哥分校的研究小組開發(fā)了一種可監(jiān)測(cè)消化系統(tǒng)和胃部活動(dòng)的物聯(lián)網(wǎng)可穿戴系統(tǒng)。 研究人員聲稱,這種新系統(tǒng)在診斷某些胃腸疾病方面與傳統(tǒng)
    發(fā)表于 05-02 15:51 ?1842次閱讀

    研究人員借鑒蟑螂靈活的外骨骼結(jié)構(gòu),制造出款機(jī)器人雛形

    加州伯克利大學(xué)的研究人員借鑒蟑螂靈活的外骨骼結(jié)構(gòu),制造出款機(jī)器人雛形,更加適應(yīng)狹窄崎嶇的地面環(huán)境。
    的頭像 發(fā)表于 06-01 11:18 ?3948次閱讀
    <b class='flag-5'>研究人員</b>借鑒蟑螂靈活的外骨骼結(jié)構(gòu),制造出<b class='flag-5'>一</b>款機(jī)器人雛形

    OpenAI提出了一種回報(bào)設(shè)置方法RND

    在開發(fā)RND之前,OpenAI的研究人員和加州大學(xué)伯克利分校的學(xué)者進(jìn)行了合作,他們測(cè)試了在沒有環(huán)境特定回報(bào)的情況下,智能體的學(xué)習(xí)情況。因?yàn)閺睦碚撋蟻碚f,好奇心提供了一種更簡(jiǎn)單的方法來教
    的頭像 發(fā)表于 11-05 15:15 ?3210次閱讀

    個(gè)用于自適應(yīng)感知問題的連續(xù)剔除框架AdaSearch,幫助機(jī)器人實(shí)現(xiàn)高效自適應(yīng)感知

    機(jī)器人研究領(lǐng)域般將具象搜索問題看做是連續(xù)的運(yùn)動(dòng)規(guī)劃問題,機(jī)器人必須平衡好探索環(huán)境和路徑選擇效率之間的關(guān)系。這使得軌跡優(yōu)化和探索融合到了同目標(biāo)函數(shù)中來優(yōu)化。在這
    的頭像 發(fā)表于 11-18 09:59 ?4579次閱讀

    UC伯克利新機(jī)器人成果:靈活自由地使用工具

    之前我們剛剛介紹了加州大學(xué)伯克利分校 Pieter Abbeel 教授領(lǐng)導(dǎo)伯克利機(jī)器人學(xué)習(xí)實(shí)驗(yàn)室(UC Be
    的頭像 發(fā)表于 04-15 09:03 ?2499次閱讀

    加州大學(xué)伯克利分校的團(tuán)隊(duì)給予跳躍機(jī)器人更高目標(biāo)

    美國(guó)加州大學(xué)伯克利分校的研究人員,研發(fā)出款能不斷跳躍的機(jī)器人:Salto-1P。
    的頭像 發(fā)表于 06-13 17:52 ?3479次閱讀

    研究人員開發(fā)出了一種稱為L(zhǎng)B-WayPtNav-DH的機(jī)器人導(dǎo)航新框架

    加州大學(xué)伯克利分校的研究人員最近開發(fā)了一種新的框架,該框架可以增強(qiáng)辦公室,房屋或博物館等室內(nèi)環(huán)境中人類的機(jī)器人導(dǎo)航能力。他們的模型在arXiv上預(yù)先發(fā)表的篇論文中
    發(fā)表于 04-09 11:18 ?949次閱讀

    研究人員開源RAD以改進(jìn)及強(qiáng)化智能學(xué)習(xí)算法

    加州大學(xué)伯克利分校的研究人員本周開放了使用增強(qiáng)數(shù)據(jù)進(jìn)行強(qiáng)化學(xué)習(xí)(RAD)的資源。
    發(fā)表于 05-11 23:09 ?1387次閱讀

    研究人員探索出了用不同相變材料隱藏紅外輻射的方法

    燈光有時(shí)會(huì)在我們的眼睛上耍花招。如果您看著發(fā)亮的表面,則看到的圖像將很大程度上取決于周圍的環(huán)境和照明條件。 伯克利研究人員現(xiàn)在已經(jīng)將眼畸變更進(jìn)步,找到了一種將視覺誘餌嵌入物體表面的
    發(fā)表于 08-12 10:24 ?886次閱讀

    研究人員發(fā)明全新AI感應(yīng)設(shè)備

    12月23日消息,據(jù)國(guó)外媒體報(bào)道,加州大學(xué)伯克利分校的研究人員發(fā)明了一種裝置,利用可穿戴傳感器和人工智能軟件來確定個(gè)人想要做出的手勢(shì)。
    的頭像 發(fā)表于 12-23 16:51 ?2746次閱讀

    美國(guó)伯克利市考慮2027年出臺(tái)汽油車禁售令

    據(jù)外媒報(bào)道,六年后,美國(guó)加州伯克利或?qū)⒔燮蛙嚒?伯克利市考慮到2027年出臺(tái)項(xiàng)汽油車禁售令,旨在應(yīng)對(duì)氣候變化。 伯克利市議會(huì)計(jì)劃在下周二發(fā)起可行性調(diào)查請(qǐng)求,計(jì)劃出臺(tái)
    的頭像 發(fā)表于 01-19 11:25 ?1488次閱讀
    主站蜘蛛池模板: 日本精品久久久久中文字幕 1 | a视频在线看 | 欧美黑人巨大性极品hd欧 | 久久er99热精品一区二区 | 亚洲国产精品一区二区第一页 | 憋尿调教绝望之岛 | 亚洲免费大全 | 亚洲乱码国产一区三区 | 97精品伊人久久大香线蕉app | 多肉np一女多男高h爽文现代 | 野花日本手机观看大全免费3 | 簧片在线观看 | 久 久 亚洲 少 妇 无 码 | 色综合久久网女同蕾丝边 | 墨西哥美女主播 | 受被攻做到腿发颤高h文 | 卫生间被教官做好爽HH视频 | 亚洲野狼综合网站 | 浪潮色诱AV久久久久久久 | 偷窥美女3 | 亚洲精品自在在线观看 | 人人碰国产免费线观看 | 91精品专区 | 黄色三级在线 | 国产精品视频免费观看 | 91免费永久在线地址 | 边做边爱播放3免费观看 | 100国产精品人妻无码 | 久久精品国产亚洲AV影院 | 日本久久道一区二区三区 | 夜夜躁婷婷AV蜜桃视频 | 久久伊人男人的天堂网站 | 青青青青青青草 | 秋霞在线看片无码免费 | 98久久无码一区人妻A片蜜 | 小小水蜜桃视频高清在线播放 | 伊人亚洲综合青草青草久热 | 国产一区二区高清 | 久久久精品日本一区二区三区 | 伊人亚洲AV久久无码精品 | 中文字幕日本久久2019 |