色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

為什么CNN不能從數(shù)據(jù)中學(xué)習(xí)平移不變性?

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 09:11 ? 次閱讀

編者按:今天論智給大家?guī)淼恼撐氖窍2畞泶髮W(xué)的Aharon Azulay和Yair Weiss近期發(fā)表的Why do deep convolutional networks generalize so poorly to small image transformations?這篇文章發(fā)現(xiàn)當(dāng)小尺寸圖像發(fā)生平移后,CNN會(huì)出現(xiàn)識(shí)別錯(cuò)誤的現(xiàn)象,而且這一現(xiàn)象是普遍的。

摘要

通常我們認(rèn)為深度CNN對(duì)圖像的平移、形變具有不變性,但本文卻揭示了這樣一個(gè)現(xiàn)實(shí):當(dāng)圖像在當(dāng)前平面上平移幾個(gè)像素后,現(xiàn)代CNN(如VGG16、ResNet50和InceptionResNetV2)的輸出會(huì)發(fā)生巨大改變,而且圖像越小,網(wǎng)絡(luò)的識(shí)別性能越差;同時(shí),網(wǎng)絡(luò)的深度也會(huì)影響它的錯(cuò)誤率。

論文通過研究表明,產(chǎn)生這個(gè)現(xiàn)象的主因是現(xiàn)代CNN體系結(jié)構(gòu)沒有遵循經(jīng)典采樣定理,無法保證通用性,而常用圖像數(shù)據(jù)集的統(tǒng)計(jì)偏差也會(huì)使CNN無法學(xué)會(huì)其中的平移不變性。綜上所述,CNN在物體識(shí)別上的泛化能力還比不上人類。

CNN的失誤

深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)對(duì)計(jì)算機(jī)視覺帶來的革新是天翻地覆的,尤其是在物體識(shí)別領(lǐng)域。和其他機(jī)器學(xué)習(xí)算法一樣,CNN成功的關(guān)鍵在于歸納偏差的方法,不同架構(gòu)的選擇影響著偏差的具體計(jì)算方式。在CNN中,卷積和池化這兩個(gè)關(guān)鍵操作是由圖像不變性驅(qū)動(dòng)的,這意味如果我們對(duì)圖像做位移、縮放、變形等操作,它們對(duì)網(wǎng)絡(luò)提取特征沒有影響。

但事實(shí)真的如此嗎?

在上圖中,左側(cè)圖像是模型的輸入,右側(cè)折線圖是模型評(píng)分,使用的模型是InceptionResNet-V2 CNN。可以發(fā)現(xiàn),作者在這里分別對(duì)圖像做了平移、放大和微小形變。在最上方的輸入中,他們只是將圖像從左到右依次下移了一像素,就使模型評(píng)分出現(xiàn)了劇烈的波動(dòng);在中間的輸入中,圖像被依次放大,模型的評(píng)分也經(jīng)歷了直線下降和直線上升;而對(duì)于最下方的輸入,這三張圖是從BBC紀(jì)錄片中選取的連續(xù)幀,它們?cè)谌祟愌壑惺潜睒O熊的自然運(yùn)動(dòng)姿態(tài),但在CNN“眼中”卻很不一樣,模型評(píng)分同樣遭遇“滑鐵盧”。

為了找出導(dǎo)致CNN失誤的特征,他們又從ImageNet驗(yàn)證集中隨機(jī)選擇了200幅圖像,并把它們嵌入較大的圖像中做系統(tǒng)性平移,由圖像平移導(dǎo)致的空白區(qū)域已經(jīng)用程序修補(bǔ)過了,在這個(gè)基礎(chǔ)上,他們測(cè)試了VGG16、ResNet50和InceptionResNetV2三個(gè)現(xiàn)代CNN模型的評(píng)分,結(jié)果如下:

圖A的縱坐標(biāo)是200張圖像,它用顏色深淺表示模型識(shí)別結(jié)果的好壞,其中非黑色彩表示模型存在能對(duì)轉(zhuǎn)變后的圖像正確分類的概率,全黑則表示完全無法正確分類。通過觀察顏色變化我們可以發(fā)現(xiàn),無論是VGG16、ResNet50還是InceptionResNetV2,它們?cè)谠S多圖片上都顯示出了由淺到深的突然轉(zhuǎn)變。

論文作者在這里引入了一種名為jaggedness的量化標(biāo)準(zhǔn):模型預(yù)測(cè)準(zhǔn)確率top-5類別中的圖像,經(jīng)歷一次一像素平移就導(dǎo)致分類錯(cuò)誤(也可以是準(zhǔn)確率低一下子變成準(zhǔn)確率高)。他們發(fā)現(xiàn)平移會(huì)大幅影響輸出的圖片占比28%。而如圖B所示,相對(duì)于VGG16,ResNet50和InceptionResNetV2因?yàn)榫W(wǎng)絡(luò)更深,它們的“jaggedness”水平更高。

那么,這是為什么呢?

對(duì)采樣定理的忽略

CNN的上述失誤是令人費(fèi)解的。因?yàn)閺闹庇^上來看,如果網(wǎng)絡(luò)中的所有層都是卷積的,那當(dāng)網(wǎng)絡(luò)對(duì)圖像編碼時(shí),所有表征應(yīng)該也都跟著一起被編碼了。這些特征被池化層逐級(jí)篩選,最后提取出用于分類決策的終極特征,理論上來說,這些特征相對(duì)被編碼的表征應(yīng)該是不變的。所以問題在哪兒?

這篇論文提出的一個(gè)關(guān)鍵思想是CNN存在采樣缺陷。現(xiàn)代CNN中普遍包含二次采樣(subsampling)操作,它是我們常說的降采樣層,也就是池化層、stride。它的本意是為了提高圖像的平移不變性,同時(shí)減少參數(shù),但它在平移性上的表現(xiàn)真的很一般。之前Simoncelli等人已經(jīng)在論文Shiftable multiscale transforms中驗(yàn)證了二次采樣在平移不變性上的失敗,他們?cè)谖闹姓f:

我們不能簡(jiǎn)單地把系統(tǒng)中的平移不變性寄希望于卷積和二次采樣,輸入信號(hào)的平移不意味著變換系數(shù)的簡(jiǎn)單平移,除非這個(gè)平移是每個(gè)二次采樣因子的倍數(shù)。

考慮到現(xiàn)在CNN通常包含很多池化層,它們的二次采樣因子會(huì)非常大,以InceptionResnetV2為例,這個(gè)模型的二次采樣因子是45,所以它保證精確平移不變性的概率有多大?只有1/452。

下面我們從計(jì)算角度看看其中的貓膩:

我們?cè)O(shè)r(x)是模型在圖像x處獲得的特征信號(hào),如果把圖像平移δ后,模型獲得的還是同樣的特征信號(hào),那我們就稱這個(gè)信號(hào)是“卷積”的。注意一點(diǎn),這個(gè)定義已經(jīng)包含輸入圖像進(jìn)入filter提取特征信號(hào)等其他線性操作,但不包括二次采樣和其他非線性操作。

觀察

如果r(x)是卷積的,那么全局池化后得到的特征信號(hào) r = ∑xr(x) 應(yīng)該具有平移不變性。

證明

以下論證來自之前我們對(duì)“卷積”的定義。如果r(x)是圖像x處的特征信號(hào),而r2(x)是同一圖像平移后的特征信號(hào),那么 ∑xr(x) = ∑xr2(x) 成立,因?yàn)閮烧呤瞧揭魄昂蟮奶卣餍盘?hào),是不變的。

定義

對(duì)于特征信號(hào)r(x)和二次采樣因子s,如果信號(hào)中x處的任意輸出x是采樣網(wǎng)格的線性插值:

那么我們就認(rèn)為r(x)是“可位移的”(shiftable)。因?yàn)閰⒄罩皥D像位移的說法,既然采樣后信號(hào)具有平移不變性,那原信號(hào)載體就是可以移動(dòng)的。其中xi是二次采樣因子s采樣網(wǎng)格上的信號(hào),Bs(x)是從采樣中重建的r(x)基函數(shù)。

經(jīng)典Shannon-Nyquist定理告訴我們,當(dāng)且僅當(dāng)采樣頻率是r(x)最高頻率的兩倍時(shí),r(x)才可以位移。

論點(diǎn)

如果r(x)可以位移,那么采樣網(wǎng)格全局池化后得到的最終特征信號(hào) r = ∑ir(xi) 應(yīng)該具有平移不變性。

證明

通過計(jì)算我們發(fā)現(xiàn)了這么一個(gè)事實(shí):采樣網(wǎng)格上的全局池化就相當(dāng)于所有x的全局池化:

其中,K = ∑xB(x ? xi)和K與xi無關(guān)。

而現(xiàn)代CNN的二次采樣忽視了以上這些內(nèi)容,所以平移不變性是難以保證的。

為什么CNN不能從數(shù)據(jù)中學(xué)習(xí)平移不變性?

雖然上一節(jié)論證了CNN在架構(gòu)上就無法保證平移不變性,但為什么它就不能從大量數(shù)據(jù)里學(xué)到不變性呢?事實(shí)上,它確實(shí)能從數(shù)據(jù)中學(xué)到部分不變性,那么問題還出在哪兒?

論文的觀點(diǎn)是數(shù)據(jù)集里的圖像自帶“攝影師偏差”,很可惜論文作者做出的解釋很糟糕,一會(huì)兒講分布,一會(huì)兒講數(shù)據(jù)增強(qiáng),非常沒有說服力。但是這個(gè)觀點(diǎn)確實(shí)值得關(guān)注,心理學(xué)領(lǐng)域曾有過關(guān)于“攝影師偏差”對(duì)人類視角影響的研究,雖然缺乏數(shù)據(jù)集論證,但很多人相信,同樣的影響也發(fā)生在計(jì)算機(jī)視覺中。

這里我們引用Azulay和Weiss的兩個(gè)更有說服力的點(diǎn):

CIFAR-10和ImageNet的圖片存在大量“攝影師偏差”,這使得神經(jīng)網(wǎng)絡(luò)無需學(xué)會(huì)真實(shí)的平移不變性。宏觀來看,只要不是像素級(jí)別的編碼,世界上就不存在兩張完全一樣的圖像,所以神經(jīng)網(wǎng)絡(luò)是無法學(xué)到嚴(yán)格的平移不變性的,也不需要學(xué)。

例如近幾年提出的群卷積,它包含的filter數(shù)量比其他不變性架構(gòu)更少,但代價(jià)是filter里參數(shù)更多,模型也更不靈活。如果數(shù)據(jù)集里存在“攝影師偏差”,那現(xiàn)有不變性架構(gòu)里的參數(shù)是無法描述完整情況的,因此它們只會(huì)獲得一個(gè)“模糊”的結(jié)果,而且缺乏靈活性,性能自然也比非不變性架構(gòu)要差不少。

小結(jié)

雖然CNN在物體識(shí)別上已經(jīng)取得了“超人”的成果,但這篇論文也算是個(gè)提醒:我們還不能對(duì)它過分自信,也不能對(duì)自己過分自信。隨著技術(shù)發(fā)展越來越完善,文章中提及的這幾個(gè)本質(zhì)上的問題也變得越來越難以蒙混過關(guān)。

或許由它我們能引出一個(gè)更有趣的問題,如果人類尚且難以擺脫由視覺偏差帶來的認(rèn)知影響,那人類制造的系統(tǒng)、機(jī)器該如何超越人類意識(shí),去了解真實(shí)世界。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4779

    瀏覽量

    101052
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24793
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    353

    瀏覽量

    22289

原文標(biāo)題:證偽:CNN中的圖片平移不變性

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    不變矩在車牌字符識(shí)別中的應(yīng)用

    為了克服車牌字符的傾斜和相似字符間的誤識(shí)別對(duì)字符識(shí)別帶來的影響,提出了一種基于不變矩的匹配算法。利用不變矩的旋轉(zhuǎn)不變性克服字符傾斜帶來的影響。對(duì)不變矩算法進(jìn)
    發(fā)表于 01-13 14:37 ?13次下載

    一種自動(dòng)的輪轂識(shí)別分類方法

    本文描述了一種運(yùn)用統(tǒng)計(jì)模式識(shí)別方法自動(dòng)識(shí)別多種車型輪轂的方法。構(gòu)造了四個(gè)具有平移不變性、比例不變性和幅度線性變換不變性的一維不變量,用以表征
    發(fā)表于 02-21 10:45 ?20次下載

    去降Mallat離散小波變換實(shí)現(xiàn)彩色圖像分割

    該文針對(duì)Mallat快速離散小波變換,提出了一種利用變換平移不變性的離散小波變換的彩色圖像分割方法。首先對(duì)原始圖像進(jìn)行平移不變性的小波變換,然后提取顏色和紋理特征,并采用
    發(fā)表于 10-12 16:00 ?19次下載
    去降Mallat離散小波變換實(shí)現(xiàn)彩色圖像分割

    基于尺度不變性的無參考圖像質(zhì)量評(píng)價(jià)

    實(shí)際場(chǎng)合中。為了解決數(shù)據(jù)庫依賴問題,提出一種歸一化的基于圖像尺度不變性的無參考圖像質(zhì)量評(píng)價(jià)方法。該方法不依賴外部數(shù)據(jù),將圖像的統(tǒng)計(jì)特性及邊緣結(jié)構(gòu)特性作為圖像質(zhì)量評(píng)價(jià)的有效特征,利用圖像多尺度
    發(fā)表于 12-22 13:44 ?1次下載
    基于尺度<b class='flag-5'>不變性</b>的無參考圖像質(zhì)量評(píng)價(jià)

    如何判斷差分方程描述的系統(tǒng)的線性和時(shí)變性?《數(shù)字信號(hào)處理》考研題

    判斷由差分方程描述的系統(tǒng)的線性和時(shí)變性,最可靠的方法是根據(jù)線性和時(shí)不變性的原始定義來判斷,這就是問題的解答。
    的頭像 發(fā)表于 07-19 17:20 ?2.9w次閱讀

    圖像處理學(xué)習(xí)資料之《圖像局部不變性特征與描述》電子教材免費(fèi)下載

    《圖像局部不變性特征與描述》是2010年國(guó)防工業(yè)出版社出版的圖書,作者是王永明、王貴錦。 本書是按照概念-理論-方法-實(shí)例思路來依次組織的。第l章介紹有關(guān)局部不變性的歷史沿革和基本概念,第2章介紹
    發(fā)表于 08-30 08:00 ?87次下載
    圖像處理<b class='flag-5'>學(xué)習(xí)</b>資料之《圖像局部<b class='flag-5'>不變性</b>特征與描述》電子教材免費(fèi)下載

    為什么區(qū)塊鏈具有不變性

    R3研究主管安東尼?劉易斯(Antony Lewis)表示:“當(dāng)人們說區(qū)塊鏈?zhǔn)遣豢勺兊臅r(shí)候,他們并不意味著數(shù)據(jù)不能被改變,他們的意思是,如果沒有共謀,改變是極其困難的,如果你嘗試了,就非常容易發(fā)現(xiàn)這種嘗試。”
    發(fā)表于 03-21 11:43 ?938次閱讀

    區(qū)塊鏈中的不變性是什么意思

    如何更好地理解它呢?我們可以將其與谷歌電子表格進(jìn)行比較。后者具有行和列,您可以隨時(shí)添加、編輯或刪除這些行和列。而當(dāng)您在區(qū)塊鏈中輸入任何數(shù)據(jù)時(shí),除非達(dá)成一致協(xié)議,否則您不能改動(dòng)這些數(shù)據(jù)。因此,雖然區(qū)塊鏈中的
    發(fā)表于 04-06 09:00 ?906次閱讀

    什么是區(qū)塊鏈不變性

    每個(gè)信息塊(例如事實(shí)或交易細(xì)節(jié))使用加密原則或哈希值進(jìn)行。該哈希值由每個(gè)塊分別生成的字母數(shù)字字符串組成。每個(gè)塊不僅包含自身的哈希或數(shù)字簽名,還包含前一個(gè)。這確保了塊可追溯地耦合在一起并且不間斷。區(qū)塊鏈技術(shù)的這種功能確保沒有人可以侵入系統(tǒng)或改變保存到塊中的數(shù)據(jù)
    發(fā)表于 04-26 13:57 ?980次閱讀

    MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

    在材料學(xué)領(lǐng)域,對(duì)分子或晶體結(jié)構(gòu)的特征描述需要滿足平移,轉(zhuǎn)動(dòng),鏡面不變性,以及對(duì)整體結(jié)構(gòu)特異信息的表征。
    的頭像 發(fā)表于 05-16 14:51 ?8290次閱讀
    MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

    機(jī)器學(xué)習(xí)在各領(lǐng)域的廣泛應(yīng)用以及促生其在材料領(lǐng)域的應(yīng)用

    至關(guān)重要的問題是如何從化學(xué)視角為晶體結(jié)構(gòu)構(gòu)建低維特征。糟糕的特征無法減低數(shù)據(jù)的復(fù)雜性或無法提取晶體的關(guān)鍵信息從而導(dǎo)致巨大的預(yù)測(cè)誤差。為了滿足覆蓋絕大多數(shù)晶體結(jié)構(gòu)和組成,特征需要滿足旋轉(zhuǎn)、平移和尺度不變性
    的頭像 發(fā)表于 04-12 10:19 ?4870次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>在各領(lǐng)域的廣泛應(yīng)用以及促生其在材料領(lǐng)域的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)是怎樣實(shí)現(xiàn)不變性特征提取的?

    計(jì)算機(jī)自動(dòng)提取特征(表示工程)實(shí)現(xiàn)圖像特征的提取與抽象,通過MLP實(shí)現(xiàn)數(shù)據(jù)的回歸與分類。二者提取的特征數(shù)據(jù)都具不變性特征。 卷積神經(jīng)網(wǎng)絡(luò)為什么能提取到圖像特征,其關(guān)鍵在于卷積神經(jīng)網(wǎng)絡(luò)有兩種不同類型的層 -卷積層(c
    的頭像 發(fā)表于 04-30 09:11 ?2635次閱讀
    卷積神經(jīng)網(wǎng)絡(luò)是怎樣實(shí)現(xiàn)<b class='flag-5'>不變性</b>特征提取的?

    為什么卷積神經(jīng)網(wǎng)絡(luò)可以做到不變性特征提取?

    計(jì)算機(jī)自動(dòng)提取特征(表示工程)實(shí)現(xiàn)圖像特征的提取與抽象,通過MLP實(shí)現(xiàn)數(shù)據(jù)的回歸與分類。二者提取的特征數(shù)據(jù)都具不變性特征。 卷積神經(jīng)網(wǎng)絡(luò)為什么能提取到圖像特征,其關(guān)鍵在于卷積神經(jīng)網(wǎng)絡(luò)有兩種不同類型的層 -卷積層(c
    的頭像 發(fā)表于 05-20 10:49 ?5317次閱讀
    為什么卷積神經(jīng)網(wǎng)絡(luò)可以做到<b class='flag-5'>不變性</b>特征提取?

    圖像匹配算法SIFT算法實(shí)現(xiàn)步驟簡(jiǎn)述

    將一幅圖像映射(變換)為一個(gè)局部特征向量集;特征向量具有平移、縮放、旋轉(zhuǎn)不變性,同時(shí)對(duì)光照變化、仿射及投影變換也有一定不變性
    發(fā)表于 04-17 09:31 ?1635次閱讀

    基于Python和深度學(xué)習(xí)CNN原理詳解

    卷積神經(jīng)網(wǎng)絡(luò) (CNN) 由各種類型的層組成,這些層協(xié)同工作以從輸入數(shù)據(jù)中學(xué)習(xí)分層表示。每個(gè)層在整體架構(gòu)中都發(fā)揮著獨(dú)特的作用。
    的頭像 發(fā)表于 04-06 05:51 ?2251次閱讀
    基于Python和深度<b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>CNN</b>原理詳解
    主站蜘蛛池模板: 午夜精品久久久久久久99蜜桃 | 受喷汁红肿抽搐磨NP双性 | 18岁男人女人插孔 | 影音先锋av电影 | 久久精品国产在热亚洲完整版 | 久草在线一免费新视频 | 韩国女人高潮嗷嗷叫视频 | 99精品视频在线观看re | 精品久久久久中文字幕日本 | 口工漫画r18全彩啪啪 | 男人女人边摸边吃奶边做 | 亚洲国产在线99视频 | 美女MM131爽爽爽 | 色老头色老太aaabbb | 国产中文字幕在线 | 精品夜夜澡人妻无码AV蜜桃 | 二级毛片免费观看全程 | 亚洲日本欧美日韩高观看 | 狠狠色丁香久久婷婷综合_中 | 亚洲欧美强伦一区二区另类 | yellow在线中文 | 十8禁用B站在线看漫画 | 免费 高清 中文在线观看 | 国产午夜精品不卡视频 | 色婷婷欧美在线播放内射 | 99re久久这里只有精品 | 印度性hd18| 狠狠狠的在啪线香蕉 | 人人澡人人擦人人免费 | 国产盗摄一区二区 | 芒果视频看片在线观看 | 妈妈的朋友5在线观看免费完整版中文 | 日本xxx片免费高清在线 | 亚洲一日韩欧美中文字幕在线 | 大胆国模一区二区三区伊人 | 国产人妻人伦精品836700 | 亚洲熟少妇在线播放999 | 精品视频在线播放 | 在线免费公开视频 | 午夜免费福利 | 欧美精品成人a多人在线观看 |