色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新的DNN目標(biāo)識(shí)別模型: 同時(shí)關(guān)注“像什么”和“是什么”

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-07-31 09:49 ? 次閱讀

一般認(rèn)為,大腦對(duì)可視目標(biāo)的識(shí)別過程分為兩部分:視覺屬性和語義屬性,即目標(biāo)“像什么“和”是什么“。過去人們對(duì)這兩部分一般是分開研究的,現(xiàn)在,劍橋大學(xué)的研究人員利用計(jì)算機(jī)視覺的標(biāo)準(zhǔn)深度神經(jīng)網(wǎng)絡(luò)AlexNet,可以將二者結(jié)合起來研究,并探尋它們之間的信息交互和映射關(guān)系究竟是怎樣的。

劍橋大學(xué)的神經(jīng)科學(xué)研究人員將計(jì)算機(jī)視覺與語義相結(jié)合,開發(fā)出一種新模型,可以更清晰地理解大腦對(duì)視覺目標(biāo)的處理方式。

人類識(shí)別目標(biāo)的能力分為兩個(gè)主要過程,對(duì)目標(biāo)的快速視覺分析,以及對(duì)整個(gè)生命過程中獲得的語義知識(shí)的激活。大多數(shù)過去的研究一般是對(duì)這兩個(gè)過程進(jìn)行分別研究。因此,這兩個(gè)過程之間的相互作用目前仍然很不清楚。

新的DNN目標(biāo)識(shí)別模型: 同時(shí)關(guān)注“像什么”和“是什么”

劍橋大學(xué)的研究人員團(tuán)隊(duì)使用一種新方法研究了大腦對(duì)目標(biāo)的識(shí)別過程,該方法結(jié)合了深度神經(jīng)網(wǎng)絡(luò)與吸引子網(wǎng)絡(luò)語義模型。與之前的大多數(shù)研究相比,這一識(shí)別技術(shù)既考慮了視覺信息,也考慮了關(guān)于被識(shí)別目標(biāo)的概念知識(shí)。

劍橋大學(xué)的研究人員表示:“我們之前曾對(duì)健康人和腦損傷患者進(jìn)行了大量研究,以更好地了解大腦中對(duì)識(shí)別目標(biāo)的處理方式。這項(xiàng)工作的主要貢獻(xiàn)之一是,它表明了大腦在理解‘目標(biāo)是什么’這個(gè)問題時(shí),涉及到視覺輸入隨著時(shí)間的推移,迅速轉(zhuǎn)變?yōu)橛幸饬x的表現(xiàn)形式,這種轉(zhuǎn)變過程是沿著腹側(cè)顳葉完成的。”

研究人員堅(jiān)信,對(duì)語義記憶的訪問是理解“目標(biāo)是什么”的關(guān)鍵,因此僅關(guān)注與視覺相關(guān)的屬性的理論并不能完全捕捉到這個(gè)復(fù)雜的過程。

該集成模型的體系結(jié)構(gòu),可以看到,會(huì)有越來越復(fù)雜的視覺信息映射到語義信息上。

來源:Lorraine Tyler等。

“就是這個(gè)問題催生出了我們目前的研究,我們希望能夠完全理解低級(jí)視覺輸入是如何映射到對(duì)象意義的語義表示上的。”研究人員解釋說。為此,他們使用了一個(gè)專門用于計(jì)算機(jī)視覺的標(biāo)準(zhǔn)深度神經(jīng)網(wǎng)絡(luò),稱為AlexNet。

他們解釋說:“這個(gè)模型以及其他類似模型可以非常精確地識(shí)別圖像中的對(duì)象,但模型中不包含任何關(guān)于對(duì)象語義屬性的明確知識(shí)。例如,香蕉和獼猴桃的外觀(不同的顏色,形狀,質(zhì)地等)有很大不同,但是,我們能夠正確地理解它們都是水果。計(jì)算機(jī)視覺的模型可以區(qū)分香蕉和獼猴桃,但這些模型并不是對(duì)更抽象的知識(shí)進(jìn)行編碼,即:它們都是水果。”

研究人員認(rèn)識(shí)到神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺應(yīng)用方面的局限性,將AlexNet視覺算法與神經(jīng)網(wǎng)絡(luò)相結(jié)合,將概念性的意義(包括語義知識(shí))納入到對(duì)方程的分析中。

“像什么”和“是什么”的關(guān)系如何,信息如何交互和映射?

研究人員表示:“在這個(gè)組合模型中,會(huì)將視覺處理映射至語義處理,并激活我們關(guān)于概念的語義知識(shí),”這個(gè)新技術(shù)已經(jīng)在16名志愿者的神經(jīng)影像數(shù)據(jù)上進(jìn)行了測(cè)試,志愿者被要求在接受功能性核磁共振(fMRI)掃描的同時(shí)說出測(cè)試圖片中目標(biāo)的名字。與傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)(DNN)視覺模型相比,新方法能夠識(shí)別與視覺和語義處理相關(guān)的不同腦區(qū)。

圖為視覺深度神經(jīng)網(wǎng)絡(luò)(紫色)和語義吸引網(wǎng)絡(luò)(紅色-黃色)的不同層如何映射到大腦的不同區(qū)域。

來源:Lorraine Tyler等。

“這項(xiàng)研究最關(guān)鍵的發(fā)現(xiàn)是,通過考慮物體的視覺和語義屬性,可以更好地模擬物體識(shí)別過程中的大腦活動(dòng),這可以通過計(jì)算建模方法捕獲,”研究人員解釋說。

研究人員設(shè)計(jì)的方法對(duì)大腦中語義激活的階段進(jìn)行了預(yù)測(cè),預(yù)測(cè)結(jié)果與先前對(duì)目標(biāo)的處理結(jié)果是一致的,其中粒度更粗的語義處理被更精細(xì)的處理所取代。研究人員還發(fā)現(xiàn),該模型在不同階段預(yù)測(cè)了大腦不同區(qū)域的對(duì)象處理方式的激活。

“最終,關(guān)于如何有意義地處理視覺目標(biāo)的更優(yōu)秀的模型可能具有重要的臨床意義。例如,語義性癡呆癥的患者就失去了對(duì)象概念意義的知識(shí),這項(xiàng)研究的發(fā)現(xiàn)對(duì)于該病的治療是很有幫助的。”研究人員說。

劍橋大學(xué)的這項(xiàng)研究是對(duì)神經(jīng)科學(xué)領(lǐng)域的重要貢獻(xiàn),因?yàn)樗故玖舜竽X的不同區(qū)域是如何推進(jìn)對(duì)目標(biāo)的視覺處理和語義處理的。該研究最近發(fā)表在《Scientific Reports》上。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:劍橋構(gòu)建視覺“語義大腦”:兼顧視覺信息和語義表示

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    開發(fā)者手機(jī) AI - 目標(biāo)識(shí)別 demo

    %。 Init、DeInit 為Native的初始化和去初始化實(shí)現(xiàn),主要對(duì)模型進(jìn)行創(chuàng)建、編譯以及銷毀。 Process為異步NAPI接口,主要完成目標(biāo)識(shí)別的功能。實(shí)現(xiàn)包括前處理、推理和后處理3個(gè)部分。前處理主要
    發(fā)表于 04-11 16:14

    RCS目標(biāo)識(shí)別

    各位好!我是一名學(xué)生,先階段在準(zhǔn)備競(jìng)賽,需要RCS目標(biāo)識(shí)別技術(shù),實(shí)現(xiàn)海上油污檢測(cè)。請(qǐng)問有沒有地方采購現(xiàn)成產(chǎn)品,或是自己制作是如何制作,謝謝!或是有其他什么方法可以實(shí)現(xiàn)海上油污檢測(cè)?
    發(fā)表于 01-27 15:50

    目標(biāo)識(shí)別之YOLO學(xué)習(xí)筆記

    目標(biāo)識(shí)別 YOLO 學(xué)習(xí)筆記(一)
    發(fā)表于 05-12 15:05

    基于樣本正交子空間的SAR目標(biāo)識(shí)別方法

    利用合成孔徑雷達(dá)(Synthetic Aperture Radar, SAR)獲取的目標(biāo)進(jìn)行識(shí)別時(shí),基于子空間的自動(dòng)目標(biāo)識(shí)別(Automatic Target Recognition
    發(fā)表于 02-10 14:00 ?19次下載

    運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤系統(tǒng)的研究

    提出了一種運(yùn)動(dòng)目標(biāo)識(shí)別與跟蹤系統(tǒng)的方案,給出了系統(tǒng)的原理圖和結(jié)構(gòu)框圖。重點(diǎn)論述了圖像處理的過程和算法,包括顏色模型的選擇,圖像的預(yù)處理,圖像分割,目標(biāo)識(shí)別
    發(fā)表于 07-20 16:14 ?29次下載

    基于顏色和區(qū)域的運(yùn)動(dòng)目標(biāo)識(shí)別

    針對(duì)全自主足球機(jī)器人目標(biāo)識(shí)別受光強(qiáng)變化的影響, 實(shí)時(shí)性、準(zhǔn)確性和魯棒性存在的不足, 提出了一種基于動(dòng)態(tài)窗口HSI 色彩空間模型的閾值向量位與及區(qū)域合并算法, 并通過動(dòng)態(tài)窗口減小
    發(fā)表于 06-28 15:36 ?34次下載
    基于顏色和區(qū)域的運(yùn)動(dòng)<b class='flag-5'>目標(biāo)識(shí)別</b>

    基于MVDR參數(shù)譜在艦船目標(biāo)識(shí)別中的應(yīng)用

    基于MVDR參數(shù)譜在艦船目標(biāo)識(shí)別中的應(yīng)用_魏鑫
    發(fā)表于 01-07 21:28 ?0次下載

    紅外動(dòng)目標(biāo)識(shí)別跟蹤系統(tǒng)的實(shí)現(xiàn)方案

    紅外動(dòng)目標(biāo)識(shí)別跟蹤系統(tǒng)的實(shí)現(xiàn)方案
    發(fā)表于 01-12 22:13 ?24次下載

    基于OpenCv運(yùn)動(dòng)目標(biāo)識(shí)別技術(shù)的研究孟介成

    基于OpenCv運(yùn)動(dòng)目標(biāo)識(shí)別技術(shù)的研究_孟介成
    發(fā)表于 03-17 08:00 ?5次下載

    電磁場(chǎng)在目標(biāo)識(shí)別中的應(yīng)用

    電磁場(chǎng)在目標(biāo)識(shí)別中的應(yīng)用
    發(fā)表于 09-15 10:01 ?22次下載
    電磁場(chǎng)在<b class='flag-5'>目標(biāo)識(shí)別</b>中的應(yīng)用

    基于SIFT視覺詞匯的目標(biāo)識(shí)別算法

    算法的目標(biāo)識(shí)別算法。結(jié)合在無遮擋與被局部遮擋的交通工具全方位姿態(tài)模型庫上進(jìn)行的目標(biāo)識(shí)別試驗(yàn),得出結(jié)果:算法對(duì)無遮擋目標(biāo)的平均識(shí)別率能到達(dá)83
    發(fā)表于 11-14 11:04 ?5次下載
    基于SIFT視覺詞匯的<b class='flag-5'>目標(biāo)識(shí)別</b>算法

    基于改進(jìn)KD樹與RANSC算法的目標(biāo)識(shí)別算法

    為了能夠更好地滿足日益擴(kuò)大的目標(biāo)識(shí)別需求,提出了一種基于改進(jìn)KD樹與RANSC算法的目標(biāo)識(shí)別算法。通過對(duì)比改進(jìn)前后KD樹匹配算法匹配SIFT特征點(diǎn)的執(zhí)行效果,很明顯的看出改進(jìn)KD樹算法的匹配效果更佳
    發(fā)表于 11-16 17:45 ?17次下載

    基于擴(kuò)展字典稀疏表示分類的遙感目標(biāo)識(shí)別

    的SIFT特征構(gòu)成特征字典,并將原始的訓(xùn)練字典改為訓(xùn)練特征擴(kuò)展字典進(jìn)行稀疏表示,從而使字典更加具有判別能力,提高識(shí)別率。同時(shí),分析了SIFT特征經(jīng)隨機(jī)投影后對(duì)識(shí)別率的影響。實(shí)驗(yàn)表明,該方法對(duì)遙感圖像
    發(fā)表于 11-17 17:18 ?9次下載
    基于擴(kuò)展字典稀疏表示分類的遙感<b class='flag-5'>目標(biāo)識(shí)別</b>

    人類和 DNN目標(biāo)識(shí)別穩(wěn)健性比較

    深度神經(jīng)網(wǎng)絡(luò)在很多任務(wù)上都已取得了媲美乃至超越人類的表現(xiàn),但其泛化能力仍遠(yuǎn)不及人類。德國(guó)蒂賓根大學(xué)等多所機(jī)構(gòu)近期的一篇論文對(duì)人類和 DNN目標(biāo)識(shí)別穩(wěn)健性進(jìn)行了行為比較,并得到了一些有趣的見解
    發(fā)表于 10-19 00:48 ?583次閱讀

    基于聚類分析的復(fù)雜環(huán)境中人臉目標(biāo)識(shí)別技術(shù)

    在現(xiàn)代社會(huì),人臉目標(biāo)識(shí)別技術(shù)在各大領(lǐng)域應(yīng)用得越來越廣泛;同時(shí),社會(huì)治安環(huán)境和國(guó)際安全問題也愈發(fā)嚴(yán)峻,人臉目標(biāo)識(shí)別面臨著越來越嚴(yán)峻的挑戰(zhàn)。在復(fù)雜環(huán)境下,檢測(cè)目標(biāo)和背景場(chǎng)景都是復(fù)雜且動(dòng)態(tài)變
    發(fā)表于 05-18 14:48 ?10次下載
    主站蜘蛛池模板: 天天槽任我槽免费 | 精品一区二区免费视频蜜桃网 | xxxx18动漫 | 亚洲欧美日韩另类精品一区二区三区 | 一本之道加勒比在线观看 | 国产精品人妻久久无码不卡 | 日本熟妇乱妇熟色A片蜜桃 日本熟妇多毛XXXXX视频 | 伊人在线视频 | 久久精品午夜一区二区福利 | jizz破处| 老湿机一区午夜精品免费福利 | 强上轮流内射高NP男男 | 国产精品99久久久久久AV蜜臀 | 青青草国产精品久久 | 处88XXX | 亚洲国产精品久久又爽黄A片 | jiz在线播放jizijzz | 为什么丈夫插我我却喜欢被打着插 | 美女扣逼软件 | 国产精品久久久久久久久免费下载 | 最懂男人心论坛 | 国产精品久久久久永久免费看 | 国内精品偷拍在线观看 | 成人毛片100部免费看 | 97亚洲狠狠色综合久久久久 | 久久影院毛片一区二区 | 国产69精品久久久久妇女 | 久久免费黄色 | 亚洲精品www久久久久久久软件 | 久草高清在线 | 最近中文字幕MV免费看 | 漂亮妈妈中文字幕版 | 午夜影院美女 | 小小水蜜桃视频高清在线观看免费 | 国产精品久久自在自2021 | 国内2018年午夜福利5678 | 最近的2019中文字幕国语HD | 国产精品99久久久久久宅男AV | 暖暖的高清视频在线观看免费中文 | 亚洲综合国产在不卡在线 | 3D漫画H精品啪啪无码 |