色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

您好,歡迎來電子發燒友網! ,新用戶?[免費注冊]

您的位置:電子發燒友網>源碼下載>數值算法/人工智能>

機器學習論文簡析

大小:0.7 MB 人氣: 2017-09-30 需要積分:1

  人工智能機器學習領域的學術論文汗牛充棟。每年的各大頂級會議、研討班錄用好幾千篇論文,即便是親臨現場也很難追蹤到所有的前沿信息。在時間精力有限的情況下,選擇精讀哪些論文,學習哪些熱門技術就成為了AI學者和從業人員所頭痛的問題。本欄目旨在要幫助大家篩選出有意思的論文,解讀出論文的核心思想,為精讀提供閱讀指導。

  NIPS(Neural Information Processing Systems,神經信息處理系統進展大會)是每年12月由NIPS基金會主辦的人工智能和機器學習頂級會議,每年大會都吸引了機器學習、人工智能、統計等領域的眾多國際專家前來參與。筆者從NIPS 2016會議文章中精選出10篇有意思的文章,為讀者解惑。

  Using Fast Weights to Attend to the Recent

  亮點:在Short-Term Memory、Long-Term Memory以及LSTM之外,有什么更好的Attention機制呢?

  本文作者陣容豪華,有來自多倫多大學的Jimmy Ba、Google DeepMind的Volodymyr Mnih、Joel Leibo以及Catalin Ionescu,外加Geoffrey Hinton坐鎮。文章一開始講明了現在的問題,在傳統的Recurrent Neural Networks(RNN)領域,有兩種形式的Memory。這兩種Memory形式有不一樣的結構、目的和容量(Capacity)。Short-Term Memory直接通過Hidden Vector來存放信息,容量是O(H),這里H是Hidden Units的數量。而另一方面,Long-Term Memory通過現在的輸入信息和Hidden Vector,來得到下一步的輸出信息以及新的Hidden Vector,總共的容量是O(H2)+O(IH)+O(HO),這里I和O是輸入單元以及輸出單元的數量。另外一種比較傳統的Long Short-Term Memory Networks(LSTM)依然只擁有O(H)的處理Short-Term Memory的能力。文章的核心是想提出一種能夠更加有效地提供記憶的機制。當然,文章用了一小節從生理學的角度來講如何有這樣的啟發,不過這恐怕主要想把文章的立意拔高,其實和后面的主要模型部分并沒有直接的聯系。簡單說來,這篇文章提出的模型基于傳統的RNN進行了這樣的改進:

  下一步的Hidden Vector來自于兩個因素:

  當前的Hidden Vector和當前的輸入信息;

  一個類似Attention機制的但這篇文章叫做Fast Weights的Matrix作用于之前的Hidden Vector。

  這個Fast Weights隨著時間的推移,會有一個衰減信息。

  如何理解Fast Weights呢?直觀來說, Fast Weights是一個Attention機制,把現在的Hidden Vector和過去的任意Hidden Vector進行比較,通過Outer Product的結果來決定Attention的強度。有了這么一種Attention機制,整個模型就能夠對過去類似的記憶進行回憶,產生一個可以對近期的信息進行綜合反應的效果。在穩定Fast Weights的目的下,文章還使用了Layer Normalization技術。文章的一些實驗結果驚人,比如在一個人造的數據集上,模型效果能夠很容易達到0錯誤率。而在MNIST的數據上做Visual Attention,提出的模型也能有非常不錯的效果。總之,這篇文章值得泛讀。對于研究Attention機制的讀者來說,是一個精讀的材料。

  Learning Structured Sparsity in Deep Neural Networks

  亮點:如何把前幾年盛行的Structured Sparisity和DNN結合?這篇文章給出了思路。

  這篇文章來自匹茲堡大學的研究人員,核心內容非常清晰,那就是要引入Structured Sparsity到DNN來,使得最終的DNN有一個比較緊湊的表示,加快運算速度,同時能夠得到硬件友善的表現形式,讓硬件能夠比較快地執行。雖然之前已經有了一些工作來對DNN進行壓縮,但這篇文章的作者認為,這些壓縮方法(比如直接使用L1 Regularization),可能會讓網絡得到一些隨機(Random)的鏈接,使得內存訪問變得不常規(Iregular)。在這樣的情況下,新的模型,雖然表面上有很大的Sparsity,但是并沒有加快運算速度,有時候甚至還有減少。另外一種最近的思路,就是最近采用的Low-Rank Approximation方法。簡單說來這種方法為先訓練DNN,然后每層得到的Tensor被分解,并且被更小的Factor所替代逼近。這種方法的好處是能夠達到加速,壞處則是需要最終重新Fine-Tune模型的精度。顯然,這篇文章就是要解決上述缺點。文章作者把前幾年火熱的Structured Sparisty Learning(SSL)和DNN相結合。具體說來,就是采用了Group Lasso的方法來讓DNN的參數能夠結構化置0。在這篇文章里,作者采用了三種方法:

  懲罰(Penalizing)不重要的Filter和Channel:把一些Filter和Channel置0;

  學習任意形狀的Filter:在2D空間上學習通過置0,達到學習任意形狀的要求;

  縮短DNN的層數:徹底移除整個層,通過增加Shortcut的方法來達到不產生斷層的情況。

  文章并沒有提供在SSL和DNN相結合的情況下的Learning算法。實驗部分非常詳實,用LeNet在MNIST、ConvNet和ResNet在CIFAR-10以及AlexNet在ImageNet上都做了實驗。總體的感覺是,在很多例子的情況下,更加Sparsity的DNN反而帶來了精度的提高。

非常好我支持^.^

(0) 0%

不好我反對

(0) 0%

      發表評論

      用戶評論
      評價:好評中評差評

      發表評論,獲取積分! 請遵守相關規定!

      ?
      主站蜘蛛池模板: 不知火舞vs精子| 白丝女仆被强扒内裤| 首页 国产 亚洲 中文字幕| 蜜柚在线观看免费高清官网视频 | 国产一区二区高清| 粉色视频午夜网站入口| jizz老师| JEALOUSVUE成熟老师APP| 91麻豆精品国产一级| 在线亚洲视频无码天堂| 亚洲中文字幕国产综合| 亚洲精品入口一区二区乱麻豆精品| 天天摸夜添狠狠添高| 色婷婷五月综合中文字幕| 日本中文字幕伊人成中文字幕| 欧美性FREE玩弄少妇| 青青草国产偷拍在线av| 秋霞电影网午夜免费鲁丝片| 秋霞电影网视频一区二区三区 | 亚洲人人为我我为人人| 亚洲性夜色噜噜噜网站2258KK| 亚洲精品婷婷无码成人A片在线| 亚洲国产综合人成综合网站00 | 国产在线观看香蕉视频| 国产综合自拍 偷拍在线| 精品熟女少妇AV免费观看| 久久全国免费观看视频| 美女漏bb| 秋霞网在线伦理影片| 婷婷四房播客五月天| 亚洲.日韩.欧美另类| 樱桃BT在线观看| 99精品免费久久久久久久久日本| 波多结衣一区二区三区| 国产99久9在线| 国语大学生自产拍在线观看| 久久免费高清| 欧美午夜a级精美理论片| 四虎亚洲中文字幕永久在线| 亚洲无遮挡无码A片在线| 中文字幕视频在线观看|