色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LSTM幾個(gè)關(guān)鍵“門”與操作

Dbwd_Imgtec ? 來源:未知 ? 作者:李倩 ? 2018-10-09 16:17 ? 次閱讀

1. 摘要

對(duì)于RNN解決了之前信息保存的問題,例如,對(duì)于閱讀一篇文章,RNN網(wǎng)絡(luò)可以借助前面提到的信息對(duì)當(dāng)前的詞進(jìn)行判斷和理解,這是傳統(tǒng)的網(wǎng)絡(luò)是不能做到的。但是,對(duì)于RNN網(wǎng)絡(luò)存在長(zhǎng)期依賴問題,比如看電影的時(shí)候,某些細(xì)節(jié)需要依賴很久以前的一些信息,而RNN網(wǎng)絡(luò)并不能很好的保存很久之前的信息,隨著時(shí)間間隔不斷增大,RNN網(wǎng)絡(luò)會(huì)喪失學(xué)習(xí)到很遠(yuǎn)的信息能力,也就是說記憶容量是有限的。例如,對(duì)于閱讀一本書,從頭到尾一字不漏的閱讀,肯定是越遠(yuǎn)的東西忘得越多。所以引入了LSTM網(wǎng)絡(luò),對(duì)于LSTM來解決梯度消失梯度爆炸問題。

LSTM其實(shí)也是RNN的一種變體,大體結(jié)構(gòu)幾乎是一樣的,但他們又有區(qū)別他的“記憶細(xì)胞”被改造過,該記憶的信息會(huì)一直傳遞下去,而不該記憶的東西會(huì)被“門”截?cái)唷?/p>

2. LSTM網(wǎng)絡(luò)

對(duì)于RNN網(wǎng)絡(luò)都是具有重復(fù)神經(jīng)網(wǎng)絡(luò)模塊的鏈?zhǔn)叫问剑谝粋€(gè)標(biāo)準(zhǔn)RNN中這個(gè)重復(fù)的模塊只要一個(gè)非常簡(jiǎn)單的結(jié)構(gòu),例如一個(gè)tanh層。

對(duì)于LSTM同樣是這樣的結(jié)構(gòu),但是重復(fù)的模塊變得復(fù)雜了。

對(duì)于圖中的一些細(xì)節(jié),

在LSTM網(wǎng)絡(luò)的圖中,每一條黑線表示向量的傳輸,從一個(gè)節(jié)點(diǎn)的輸出傳入其它節(jié)點(diǎn)的輸出。對(duì)于粉紅色的圈代表著節(jié)點(diǎn)的操作,如向量的求和等。黃色的矩陣是學(xué)習(xí)到的網(wǎng)絡(luò)層。Concatenate的線表示向量的連接,Copy的線表示內(nèi)容復(fù)制,然后輸出到不同的位置。

3. LSTM的關(guān)鍵點(diǎn)

對(duì)于LSTM的關(guān)鍵是細(xì)胞狀態(tài),細(xì)胞的狀態(tài)類似于傳送帶,直接在整個(gè)鏈路上運(yùn)行,只有一些少量的線性交互。

4. 細(xì)胞狀態(tài)的控制

LSTM是通過“門”來控制細(xì)胞狀態(tài)的,通過“門”來選擇性通過,去除或者增加信息到細(xì)胞狀態(tài)。它包含一個(gè)sigmoid網(wǎng)絡(luò)層和一個(gè)pointwise乘法操作。Sigmoid層輸入0到1之間的概率值,藐視每個(gè)部分有多少量可以通過,0代表不允許任何量通過,1代表允許任何量通過。LSTM是擁有三個(gè)門,來保護(hù)和控制細(xì)胞狀態(tài)的。

5. LSTM幾個(gè)關(guān)鍵“門”與操作

STEP 1: 決定從“細(xì)胞狀態(tài)”中丟棄什么信息即“忘記門”。比如一篇小說的推導(dǎo),小說中可能有幾個(gè)人物,在讀小說時(shí)候我們都會(huì)記住,但有些是不重要的這時(shí)候我就選擇忘掉,而把重要的東西記住??傊?,如果要決定之前的記憶以多大的程度被忘掉或者需要被保留,我們需要通過sigmoid函數(shù)去參考上一次的結(jié)果與當(dāng)前考到的內(nèi)容。

ft是輸出0到1的概率,表示已多大的程度忘記之前的信息。h表示上一次輸出的結(jié)果,x表示當(dāng)前輸入的信息。

STEP 2: 決定放什么信息到“細(xì)胞狀態(tài)”中。從step 1中我們?cè)趥魉蛶贤浟艘恍〇|西,那我們應(yīng)該補(bǔ)充點(diǎn)東西,對(duì)細(xì)胞轉(zhuǎn)態(tài)進(jìn)行更新。也就是說哪些東西要記住,這一步就是君頂放什么心信息到“細(xì)胞狀態(tài)”中。

這里的Sigmoid層是決定什么值需要更新,也就是這一時(shí)刻我們新學(xué)到我們學(xué)到的東西哪些應(yīng)該要記住,以多大的程度選擇記?。籘anh層創(chuàng)建了一個(gè)新的候選值Ct,表示我們新學(xué)到的東西。

STEP 3: 更新細(xì)胞狀態(tài)。前面兩步就是為細(xì)胞狀態(tài)的更新做準(zhǔn)備的,更新C(t-1)為Ct。也就是把舊狀態(tài)與ft相乘,丟掉我們確定需要丟棄的信息,加上it*Ct。這就是新的候選值,根據(jù)我們決定更新每個(gè)狀態(tài)的程度進(jìn)行變化。

從數(shù)學(xué)的角度來看,與RNN相比,在求偏導(dǎo)的時(shí)候RNN是進(jìn)行鏈?zhǔn)较喑说?,有一個(gè)效果不好,那么就會(huì)影響整個(gè)系統(tǒng),效果影響到整個(gè)網(wǎng)絡(luò)。而在LSTM中,從以上的公式可看出,做完Tanh后沒在進(jìn)行求和,所以再求偏導(dǎo)的時(shí)候,就算有一個(gè)效果不好也不會(huì)影響到整個(gè)網(wǎng)絡(luò),因?yàn)檫@里是進(jìn)行加法運(yùn)算的,所以很大程度上解決了梯度消失梯度爆炸問題。

STEP 4: 基于“細(xì)胞狀態(tài)”輸出。首先運(yùn)行一個(gè)Sigmoid層來確定細(xì)胞狀態(tài)的哪個(gè)部分將輸出,接著用Tanh來處理細(xì)胞狀態(tài),這是一個(gè)從-1到1的值。然后再講它和Sigmoid門的輸出相乘,輸出我們確定輸出的那個(gè)部分。比如我們可能需要單復(fù)數(shù)信息來確定輸出“他”還是“他們”。最終輸出我們想要輸出的部分。

6. LSTM主要變體

變種1:通過使用coupled忘記和輸出門,之前是分開確定需要忘記和添加的信息,這里是一同作出決定。

變種二:Gated Recurrent Unit (GRU),2014年提出的,他將忘記門和輸出門合成一個(gè)單一的更新門,同樣還混合了細(xì)胞狀態(tài)和隱藏轉(zhuǎn)態(tài),和其他一起改動(dòng),與標(biāo)準(zhǔn)的LSTM簡(jiǎn)單。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4779

    瀏覽量

    101072
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    6902

原文標(biāo)題:談?wù)凩STM(Long Short-Term Memory)長(zhǎng)短期記憶網(wǎng)絡(luò)

文章出處:【微信號(hào):Imgtec,微信公眾號(hào):Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    什么是LSTM神經(jīng)網(wǎng)絡(luò)

    簡(jiǎn)單理解LSTM神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-28 07:16

    高質(zhì)量的雙量子比特操作

    高質(zhì)量的雙量子比特操作(比如常見的CNOT,控制非門)是可擴(kuò)展量子計(jì)算信息處理的關(guān)鍵。因?yàn)椋?b class='flag-5'>門型量子計(jì)算里,可靠的單量子
    發(fā)表于 07-29 08:48

    深度解析LSTM的全貌

    原來,LSTM是神經(jīng)網(wǎng)絡(luò)的擴(kuò)展,非常簡(jiǎn)單。深度學(xué)習(xí)在過去的幾年里取得了許多驚人的成果,均與LSTM息息相關(guān)。因此,在本篇文章中我會(huì)用盡可能直觀的方式為大家介紹LSTM——方便大家日后自己進(jìn)行相關(guān)的探索。
    的頭像 發(fā)表于 02-02 10:39 ?1w次閱讀
    深度解析<b class='flag-5'>LSTM</b>的全貌

    LSTM的核心構(gòu)成,實(shí)際中“”的效果如何?

    是否真的具有我們上述描述的意義呢?這也是我們這篇論文的出發(fā)點(diǎn)。為了探究這個(gè)問題,我們分析了IWSLT14德語-英語的翻譯任務(wù),這個(gè)翻譯任務(wù)的模型是基于LSTM的端到端(sequence-to-sequence)結(jié)構(gòu)。
    的頭像 發(fā)表于 07-02 15:53 ?9993次閱讀
    <b class='flag-5'>LSTM</b>的核心構(gòu)成,實(shí)際中“<b class='flag-5'>門</b>”的效果如何?

    LSTM的硬件加速方式

    Long-short term memory,簡(jiǎn)稱LSTM,被廣泛的應(yīng)用于語音識(shí)別、機(jī)器翻譯、手寫識(shí)別等。LSTM涉及到大量的矩陣乘法和向量乘法運(yùn)算,會(huì)消耗大量的FPGA計(jì)算資源和帶寬。為了實(shí)現(xiàn)硬件加速,提出了稀疏LSTM
    發(fā)表于 08-24 10:32 ?3053次閱讀
    <b class='flag-5'>LSTM</b>的硬件加速方式

    一種具有強(qiáng)記憶力的 E3D-LSTM網(wǎng)絡(luò),強(qiáng)化了LSTM的長(zhǎng)時(shí)記憶能力

    標(biāo)準(zhǔn) LSTM 單元結(jié)構(gòu) 首先簡(jiǎn)要介紹一下標(biāo)準(zhǔn) LSTM 結(jié)構(gòu),和 RNN 相比 LSTM 增加了更復(fù)雜的結(jié)構(gòu)(圖中黃色模塊),主要解決 RNN 中存在的梯度消失問題,從而提高網(wǎng)
    的頭像 發(fā)表于 09-01 07:35 ?1.1w次閱讀
    一種具有強(qiáng)記憶力的 E3D-<b class='flag-5'>LSTM</b>網(wǎng)絡(luò),強(qiáng)化了<b class='flag-5'>LSTM</b>的長(zhǎng)時(shí)記憶能力

    LSTM模型的基本組成

    的梯度消失或梯度爆炸問題。LSTM通過引入三個(gè)“”控制結(jié)構(gòu)——遺忘、輸入門和輸出門,以及一個(gè)記憶細(xì)胞(memory cell),實(shí)現(xiàn)了對(duì)信息的有效存儲(chǔ)和更新。本文將對(duì)LSTM模型的
    的頭像 發(fā)表于 07-10 17:01 ?1543次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在時(shí)間序列預(yù)測(cè)中的應(yīng)用

    LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴關(guān)系。與傳統(tǒng)的RNN相比,LSTM通過引入門控機(jī)制(輸入門、遺忘、輸出門)來解決梯度消失和梯度爆炸的問題,使其能夠處理更長(zhǎng)的序列數(shù)據(jù)。
    的頭像 發(fā)表于 11-13 09:54 ?802次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語言處理任務(wù)

    ,NLP任務(wù)的處理能力得到了顯著提升。 LSTM網(wǎng)絡(luò)簡(jiǎn)介 LSTM網(wǎng)絡(luò)是一種特殊的RNN,它通過引入門控機(jī)制來解決傳統(tǒng)RNN在處理長(zhǎng)序列數(shù)據(jù)時(shí)的梯度消失和梯度爆炸問題。LSTM的核心組件包括輸入門、遺忘
    的頭像 發(fā)表于 11-13 09:56 ?473次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    能夠?qū)W習(xí)到長(zhǎng)期依賴關(guān)系,這使得它在處理長(zhǎng)序列數(shù)據(jù)時(shí)更為有效。LSTM通過引入門控機(jī)制(輸入門、遺忘和輸出門)來控制信息的流
    的頭像 發(fā)表于 11-13 09:57 ?1975次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧

    長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴信息。在實(shí)際應(yīng)用中,LSTM網(wǎng)絡(luò)的調(diào)參是一個(gè)復(fù)雜且關(guān)鍵的過程,直接影響
    的頭像 發(fā)表于 11-13 10:01 ?779次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在語音識(shí)別中的應(yīng)用實(shí)例

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 LSTM是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴關(guān)系。在傳統(tǒng)的RNN中,信息會(huì)隨著時(shí)間的流逝而逐漸消失,導(dǎo)致網(wǎng)絡(luò)難以捕捉長(zhǎng)距離的依賴關(guān)系。LSTM通過引入門控機(jī)制(輸入門、遺忘和輸出門),有效地解決
    的頭像 發(fā)表于 11-13 10:03 ?764次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    的結(jié)構(gòu)與工作機(jī)制的介紹: 一、LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)主要包括以下幾個(gè)部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網(wǎng)絡(luò)的核心,負(fù)責(zé)在整個(gè)序列
    的頭像 發(fā)表于 11-13 10:05 ?562次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用

    LSTM通過引入門控機(jī)制來解決傳統(tǒng)RNN的梯度消失和梯度爆炸問題。這些門控機(jī)制包括輸入門、遺忘和輸出門,它們控制著信息的流動(dòng),使得網(wǎng)絡(luò)能夠記住或忘記信息。 LSTM在圖像處理中的應(yīng)用 1. 圖像分類
    的頭像 發(fā)表于 11-13 10:12 ?619次閱讀

    深度學(xué)習(xí)框架中的LSTM神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)

    處理、語音識(shí)別和時(shí)間序列預(yù)測(cè)等領(lǐng)域,LSTM已經(jīng)成為一種流行的選擇。 LSTM的基本原理 LSTM網(wǎng)絡(luò)的核心是三個(gè)門控機(jī)制:輸入門(Input Gate)、遺忘(Forget Gat
    的頭像 發(fā)表于 11-13 10:16 ?460次閱讀
    主站蜘蛛池模板: 私密按摩师在线观看 百度网盘 | 高清国产在线播放成人 | 日韩精品卡1卡2三卡四卡乱码 | 国产女人视频免费观看 | 久久噜国产精品拍拍拍拍 | 国产精品免费一区二区三区四区 | 人妻中文字幕乱人伦在线 | 我要搞av| 芭乐视频免费资源在线观看 | 亚洲人交性视频 | 成人精品视频在线观看 | 国产精品嫩草影院在线观看免费 | 青青青手机视频 | 国产精品你懂得 | 亚洲 欧美 国产 综合久久 | 久久成人国产精品一区二区 | 中文字幕在线久热精品 | 性色AV一区二区三区咪爱四虎 | 国产精品亚洲专区在线播放 | 亚洲精品乱码8久久久久久日本 | 青青草久久 | 麻豆人妻无码性色AV | 男生脱美女内裤内衣动态图 | 欲插爽乱浪伦骨 | 最新亚洲一区二区三区四区 | 一二三四在线视频社区8 | 亚洲国产精品一区二区三区在线观看 | 久久re这里视频精品15 | 最近中文字幕在线看免费完整版 | 国产欧美另类久久久精品免费 | 色欲AV色欲AV久久麻豆 | 午夜片无码区在线观看 | 伊人天天躁夜夜躁狠狠 | 天天啪免费视频在线看 | 国产高清精品自在久久 | 亚婷婷洲AV久久蜜臀无码 | 无限好资源免费观看 | 少妇厨房愉情理9伦片视频 少妇被躁爽到高潮无码久久 | 校花爽好大快深点h | caoporn 在线视频 | 中文字幕亚洲无限码 |