深度學習實戰
前面提到過ViT,但是ViT在數據量不夠巨大的情況下是打不過ResNet的。于是ViT的升級版T2T-ViT橫空出世了,速度更快性能更強。T2T-ViT相比于ViT,參數量和MACs(Multi-Adds)減少了200%,性能在ImageNet上又有2.5%的提升。T2T-ViT在和ResNet50模型大小差不多的情況下,在ImageNet上達到了80.7%的準確率。論文的貢獻:
證明了通過精心設計的Transformer-based的網絡(T2T module and efficient backbone),是可以打敗CNN-based的模型的,而且不需要在巨型的訓練集(如JFT-300M)上預訓練。
提出了一種可以編碼局部信息的結構T2T module,并證明了T2T的有效性。
展示了在設計CNNs backbone時用到的architecture engineering經驗同樣適用于設計Transformer-based的模型,通過大量的實驗證明深且窄(deep-narrow)的網絡能夠增加feature的豐富性和減少冗余。
Why T2T-ViT?
先來說下ViT[1],ViT在從頭開始訓練(trained from scratch) ImageNet時,效果甚至比CNN-based的模型還差。這顯然是不能讓人足夠滿意的,文中分析了兩點原因:
(1)由于ViT是采用對原圖像分塊,然后做Linear Projection得到embedding。但是通過實驗發現,這種基于原圖像的簡單tokenization并沒有很好地學到圖像的邊緣或者線條這種低級特征,導致ViT算法的學習效率不高,難以訓練,因此ViT需要大量的數據進行訓練。
(2)在有限的計算資源和有限的數據的情況下,ViT冗余的attention主干網絡難以學得豐富的特征。
所以為了克服這些限制,提出了Tokens-To-Token Vision Transformers(T2T-Vit)。為了證明上面的結論,還做了一個實驗,可視化了ResNet、ViT和T2T-ViT所學到的特征的差異。
綠色的框中表示了模型學到的一些諸如邊緣和線條的low-level structure feature,紅色框則表示模型學到了不合理的feature map,這些feature或者接近于0,或者是很大的值。從這個實驗可以進一步證實,CNN會從圖像的低級特征學起,這個在生物上是說得通的,但是通過可視化來看,ViT的問題確實不小,且不看ViT有沒有學到低級的特征,后面的網絡層的feature map甚至出現了異常值,這個是有可能導致錯誤的預測的,同時反映了ViT的學習效率差。 Tokens-to-Token:Progressive Tokenization
為了解決ViT的問題,提出了一種漸進的tokenization去整合相鄰的tokens,從tokens到token,這種做法不僅可以對局部信息的建模還能減小token序列的長度。整個T2T的操作分為兩個部分:重構(re-structurization)和軟劃分(soft split)。(1)Re-structurization假設上一個網絡層的輸出為T,T經過Transformer層得到T',Transformer是包括mutil-head self-attention和MLP的,因此從T到T'可以表示為T' = MLP(MSA(T)),這里MSA表示mutil-head self-attention,MLP表示多層感知機,上述兩個操作后面都省略了LN。經過Transformer層后輸出也是token的序列,為了重構局部的信息,首先把它還原為原來的空間結構,即從一維reshape為二維,記作I。I = Reshape(T'),reshape操作就完成了從一維的向量到二維的重排列。整個操作可以參見上圖的step1。(2)Soft Split與ViT那種hard split不同,T2T-ViT采用了soft split,說直白點就是不同的分割部分會有overlapping。I會被split為多個patch,然后每個patch里面的tokens會拼接成一個token,也就是這篇論文的題目tokens to token,這個步驟也是最關鍵的一個步驟,因為這個步驟從圖像中相鄰位置的語義信息聚合到一個向量里面。同時這個步驟會使tokens序列變短,單個token的長度會變長,符合CNN-based模型設計的經驗deep-narrow。 T2T module
在T2T模塊中,依次通過Re-structurization和Soft Split操作,會逐漸使tokens的序列變短。整個T2T模塊的操作可以表示如下:
由于是soft split所以tokens的序列長度會比ViT大很多,MACs和內存占用都很大,因此對于T2T模塊來說,只能減小通道數,這里的通道數可以理解為embedding的維度,還使用了Performer[2]來進一步減少內存的占用。 Backbone
為了增加特征的豐富性和減少冗余,需要探索一個更有效的backbone。從DenseNet、Wide-ResNets、SENet、ResNeXt和GhostNet尋找設計的靈感,最終發現:(1)在原ViT的網絡結構上采用deep-narrow的原則,增加網絡的深度,減小token的維度,可以在縮小模型參數量的同時提升性能。(2)使用SENet[3]中的channel attention對ViT會有提升,但是在使用deep-narrow的結構下提升很小。 Architecture
T2T-ViT由T2T module和T2T-ViT backbone組成。PE是position embedding。對于T2T-ViT-14來說,由14個transformer layers組成,backbone中的hidden dimensions是384。對比ViT-B/16,ViT-B/16有12個transformer layers,hidden dimensions是768,模型大小和MACs是T2T-ViT-14整整三倍。 Experiments
在不使用預訓練時,T2T-ViT和ViT的對比,可以看到T2T-ViT真的是完勝ViT啊,不僅模型比你小,精度還比你高。
不僅完勝ViT,ResNet也不在話下,說實話看到這個結果的時候真的可以說Transformer戰勝了CNN了。 Conclusion
T2T-ViT通過重構圖像的結構性信息,克服了ViT的短板,真正意義上擊敗了CNN。通過提出tokens-to-token的process,逐漸聚合周圍的token,增強局部性信息。這篇論文中不僅探索了Transformer-based的網絡結構的設計,證明了在Transformer-based模型中deep-narrow要好于shallow-wide,還取得了很好的性能表現。 Reference
[1]A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly, et al. An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929, 2020. [2]K. Choromanski, V. Likhosherstov, D. Dohan, X. Song, A. Gane, T. Sarlos, P. Hawkins, J. Davis, A. Mohiuddin, L. Kaiser, et al. Rethinking attention with performers. arXiv preprint arXiv:2009.14794, 2020. [3]Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 7132-7141.
責任編輯:lq
-
可視化
+關注
關注
1文章
1200瀏覽量
21005 -
深度學習
+關注
關注
73文章
5512瀏覽量
121404 -
cnn
+關注
關注
3文章
353瀏覽量
22285
原文標題:Tokens to-Token ViT:真正意義上擊敗了CNN
文章出處:【微信號:gh_a204797f977b,微信公眾號:深度學習實戰】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論