今天跟大家分享一篇關(guān)于語義分割的論文,剛剛上傳到arXiv的CVPR 2019接收論文《Structured Knowledge Distillation for Semantic Segmentation》,通訊作者單位為微軟亞洲研究院。
作者信息:
作者分別來自澳大利亞阿德萊德大學(xué)、微軟亞洲研究院、北航、Keep公司、三星中國研究院,該文為第一作者Yifan Liu在微軟亞洲研究院實(shí)習(xí)期間的工作。
該文研究了在語義分割模型的知識蒸餾中引入結(jié)構(gòu)化信息的損失函數(shù),在不改變模型計(jì)算量的情況下,使用該方法在Cityscapes數(shù)據(jù)集上mIoU精度取得了最高達(dá)15.17%的提升。
什么是知識蒸餾?
顧名思義,知識蒸餾是把知識濃縮到“小”網(wǎng)絡(luò)模型中。一般情況下,在相同的數(shù)據(jù)上訓(xùn)練,模型參數(shù)量較大、計(jì)算量大的模型往往精度比較高,而用精度高、模型復(fù)雜度高的模型即Teacher網(wǎng)絡(luò)的輸出訓(xùn)練Student網(wǎng)絡(luò),以期達(dá)到使計(jì)算量小參數(shù)少的小網(wǎng)絡(luò)精度提升的方法,就是知識蒸餾。
知識蒸餾的好處是顯而易見的,使用知識蒸餾后的Student網(wǎng)絡(luò)能夠達(dá)到較高的精度,而且更有利于實(shí)際應(yīng)用部署,尤其是在移動設(shè)備中。
下面兩幅圖中,作者展示了使用該文提出的結(jié)構(gòu)化知識蒸餾的語義分割模型在計(jì)算量和參數(shù)量不變的情況下,精度獲得了大幅提升。
算法原理
知識蒸餾的目標(biāo)是希望對于Teacher網(wǎng)絡(luò)和Student網(wǎng)絡(luò)給定相同的圖像,輸出結(jié)果盡量一樣。
所以,知識蒸餾的關(guān)鍵,是如何衡量Teacher網(wǎng)絡(luò)和Student網(wǎng)絡(luò)輸出結(jié)果的一致性,也就是訓(xùn)練過程中的損失函數(shù)設(shè)計(jì)。
該文中作者將語義分割問題看為像素分類問題,所以很自然的可以使用衡量分類差異的逐像素(Pixel-wise)的損失函數(shù)Cross entropy loss,這是在最終的輸出結(jié)果Score map中計(jì)算的。
同時作者引入了圖像的結(jié)構(gòu)化信息損失,如下圖所示。
如何理解圖像的結(jié)構(gòu)化信息?一種很顯然的結(jié)構(gòu)化信息即圖像中局部的一致性。在語義分割中,可以簡單理解為,預(yù)測結(jié)果中存在的自相似性,作者衡量這種結(jié)構(gòu)化信息的方式是Teacher預(yù)測的兩像素結(jié)果和Student網(wǎng)絡(luò)預(yù)測的兩像素結(jié)果一致。衡量這種損失,作者稱之為Pair-wise loss(也許可以翻譯為“逐成對像素”損失)。
另一種更高層次的結(jié)構(gòu)化信息是來自對圖像整體結(jié)構(gòu)相似性的度量,作者引入了對抗網(wǎng)絡(luò)的思想,設(shè)計(jì)專門的網(wǎng)絡(luò)分支分類Teacher網(wǎng)絡(luò)和Student網(wǎng)絡(luò)預(yù)測的結(jié)果,網(wǎng)絡(luò)收斂的結(jié)果是該網(wǎng)絡(luò)不能再區(qū)分Teacher網(wǎng)絡(luò)和Student網(wǎng)絡(luò)的輸出。作者稱這塊損失函數(shù)為Holistic loss(整體損失)。
仔細(xì)想想,作者設(shè)計(jì)的損失函數(shù)的三部分,逐像素的損失(Pixel-wise loss,PI)、逐像素對的損失(Pair-wise loss,PA)、整體損失(Holistic loss,HO)都很有道理,是不是?
作者使用ResNet18網(wǎng)絡(luò)模型在Cityscapes數(shù)據(jù)集上研究了作者提出的損失函數(shù)各部分對結(jié)果的影響。(ImN代表用ImageNet預(yù)訓(xùn)練模型初始化網(wǎng)絡(luò))
結(jié)果如下圖。
可知,作者提出的損失函數(shù)的各個部分都能使得Student網(wǎng)絡(luò)獲得精度增益,最高達(dá)15.17%!CV君發(fā)現(xiàn)逐像素對的損失(Pair-wise loss,PA)獲得的增益最大。
實(shí)驗(yàn)結(jié)果
作者使用多個輕量級網(wǎng)絡(luò)模型,在三個主流語義分割數(shù)據(jù)庫上進(jìn)行了實(shí)驗(yàn)。
下圖為在Cityscapes數(shù)據(jù)集上的結(jié)果,使用該文方法知識蒸餾后Student網(wǎng)絡(luò)精度獲得了大幅提升!
下圖為一些預(yù)測結(jié)果示例,視覺效果上改進(jìn)明顯。
下圖為在CamVid數(shù)據(jù)集上的結(jié)果,同樣改進(jìn)明顯。
CamVid數(shù)據(jù)集上的Student網(wǎng)絡(luò)預(yù)測示例,視覺上也好了很多。
下圖為在ADE20K數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,同樣所有網(wǎng)絡(luò)模型的精度都獲得了大幅提升!
目前還未發(fā)現(xiàn)該文作者公布代碼。
-
微軟
+關(guān)注
關(guān)注
4文章
6627瀏覽量
104335 -
函數(shù)
+關(guān)注
關(guān)注
3文章
4345瀏覽量
62884 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1209瀏覽量
24793
原文標(biāo)題:微軟亞研院提出用于語義分割的結(jié)構(gòu)化知識蒸餾 | CVPR 2019
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論