色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

長短時記憶網絡(LSTM)介紹

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2022-02-14 14:40 ? 次閱讀

長短時記憶網絡

循環神經網絡很難訓練的原因導致它的實際應用中很處理長距離的依賴。本文將介紹改進后的循環神經網絡:長短時記憶網絡(Long Short Term Memory Network, LSTM),

原始RNN的隱藏層只有一個狀態,即h,它對于短期的輸入非常敏感。那么如果我們再增加一個狀態,即c,讓它來保存長期的狀態,這就是長短時記憶網絡。

pIYBAGAISreAdMcwAAApJFPBAYY877.png

新增加的狀態c,稱為單元狀態。我們把上圖按照時間維度展開:

o4YBAGAISvWAckC2AABA0INGCCg320.png

可以看到在 t 時刻,LSTM的輸入有三個:當前時刻網絡的輸出值 xt 、上一時刻LSTM的輸出值 ht?1、以及上一時刻的單元狀態 ct?1;LSTM的輸出有兩個:當前時刻LSTM輸出值 ht 、和當前時刻的單元狀態 xt 。注意 x、h、c 都是向量。

LSTM的關鍵,就是怎樣控制長期狀態c。在這里,LSTM的思路是使用三個控制開關。第一個開關,負責控制繼續保存長期狀態c;第二個開關,負責控制把即時狀態輸入到長期狀態c;第三個開關,負責控制是否把長期狀態c作為當前的LSTM的輸出。三個開關的作用如下圖所示:

o4YBAGAISzSAaVGLAABdnag0k6w525.png

接下來我們要描述一下,輸出h和單元狀態c的具體計算方法。

長短時記憶網絡的前向計算

我們引入“門(gate)”的概念。門實際上就是一層全連接層,它的輸入是一個向量,輸出是一個0到1之間的實數向量。假設W是門的權重向量,b是偏置項,那么門可以表示為:

pIYBAGAIS3GAM73JAAAE1R52yfQ997.png

門的輸出是0到1之間的實數向量,用門向量的輸出向量按元素乘以我們需要控制的那個向量,當門輸出為0時,任何向量與之相乘都會得到0向量,這就相當于啥都不能通過;輸出為1時,任何向量與之相乘都不會有任何改變,這就相當于啥都可以通過。因為σ(也就是sigmoid函數)的值域是(0,1),所以門的狀態都是半開半閉的。

LSTM用兩個門來控制單元狀態 c 的內容,一個是遺忘門,它決定了上一時刻的單元狀態 t?1 有多少保留到當前時刻 ct ;另外一個是輸出門,他決定了當前時刻網絡的輸入 xt 有多少保存到單元狀態 ct 。LSTM用輸出門來控制單元狀態 ct 有多少輸出到LSTM的當前輸出值 ht 。LSTM用輸出門來控制單元狀態 ct 有多少輸出到LSTM的當前輸出值ht。

遺忘門的表達式是:

o4YBAGAIS6-AYA5JAAAIumgvVIE262.png

上式中,Wf 是遺忘門的權重矩陣,ht?1 , xt 表示把兩個向量連接成一個更長的向量,bf 是遺忘門的偏置項,σ是sigmoid函數。如果輸入的維度是dx,隱藏層的維度是 dh,單元狀態的維度是 dc( d_c = d_h ),則遺忘門的權重矩陣 Wf維度是 dcx(dh + dx ) 。事實上,權重矩陣 Wf 都是兩個矩陣拼接而成的:一個是Wfh,它對應著輸入項 ht?1 ,其維度為 dcxdh;一個是Wfx,它對應著輸入項 xt ,其維度為dcxdx。Wf 可以寫為:

o4YBAGAIS-6AeeUqAAAL40brfDE660.png

下圖顯示了遺忘門的計算:

pIYBAGAITCyABllyAAAx2gXi2VE706.png

接下來看看輸入門:

o4YBAGAITIiAHl-MAAAHBHhgbW4336.png

上式中,Wi 是輸入門的權重矩陣,$b_i$是輸入門的偏置項。下圖表示了輸入門的計算:

o4YBAGAITMaAdJusAAAyyP2YpDE827.png

接下來,我們計算用于描述當前輸入的單元狀態o4YBAGAITQOAJV-JAAABTWl_Do0900.png,它是根據上一次的輸出和本次輸入來計算的:

pIYBAGAITUCAbLH_AAAHg-93rGk067.png

下圖是o4YBAGAITQOAJV-JAAABTWl_Do0900.png的計算:

pIYBAGAITbyAS2F0AAA3Ixp84xY912.png

現在,我們計算當前時刻的單元狀態 ct。它是由上一次的單元狀態 ct?1 按元素乘以遺忘門 ft ,再用當前輸入的單元狀態o4YBAGAITQOAJV-JAAABTWl_Do0900.png按元素乘以輸入門 it ,再將兩個積加和產生的:

pIYBAGAITjmACK0WAAAFHe049mE332.png

符號O表示按元素乘。下圖是 ct 的計算:

o4YBAGAITneAe4ZGAABC5iL1jv8396.png

這樣,我們就把LSTM關于當前的記憶o4YBAGAITQOAJV-JAAABTWl_Do0900.png和長期的記憶 ct?1 組合在一起,形成了新的單元狀態 ct 。由于遺忘門的控制,它可以保存很久很久之前的信息,由于輸入門的控制,它又可以避免當前無關緊要的內容進入記憶。下面,我們要看看輸出門,它控制了長期記憶對當前輸出的影響:

o4YBAGAITvKAWwfGAAAG4I3NkQk500.png

下面表示輸出門的計算:

o4YBAGAITzCAeFFvAABFRWC5uO8185.png

LSTM最終的輸出,是由輸出門和單元狀態共同確定的:

pIYBAGAIT3SAbXpiAAAFYp4ak90425.png

下圖表示LSTM最終輸出的計算:

o4YBAGAIT7KARwrFAABL8irwcA4091.png

式1到式6就是LSTM前向計算的全部公式。至此,我們就把LSTM前向計算講完了。

長短時記憶網絡的訓練

LSTM訓練算法框架

LSTM的訓練算法仍然是反向傳播算法,對于這個算法,我們已經非常熟悉了。主要有下面三個步驟:

1、前向計算每個神經元的輸出值,對于LSTM來說,即 ft、it、ct、ot、ht 五個向量的值。計算方法已經在上一節中描述過了。

2、反向計算每個神經元的誤差項δ值。與循環神經網絡一樣,LSTM誤差項的反向傳播也是包括兩個方向:一個是沿時間的反向傳播,即從當前t時刻開始,計算每個時刻的誤差項;一個是將誤差項向上一層傳播。

3、根據相應的誤差項,計算每個權重的梯度。

作者:凌逆戰
來源:博客園
原文鏈接:https://www.cnblogs.com/LXP-Never/p/10398531.html

審核編輯:何安

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4779

    瀏覽量

    101031
  • 循環神經網絡

    關注

    0

    文章

    38

    瀏覽量

    2985
  • LSTM
    +關注

    關注

    0

    文章

    59

    瀏覽量

    3771
收藏 人收藏

    評論

    相關推薦

    深度學習框架中的LSTM神經網絡實現

    長短記憶LSTM網絡是一種特殊的循環神經網絡(RNN),能夠學習長期依賴信息。與傳統的RNN相比,
    的頭像 發表于 11-13 10:16 ?457次閱讀

    LSTM神經網絡在圖像處理中的應用

    長短記憶LSTM)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴關系。雖然LSTM
    的頭像 發表于 11-13 10:12 ?607次閱讀

    如何使用Python構建LSTM神經網絡模型

    構建一個LSTM長短記憶)神經網絡模型是一個涉及多個步驟的過程。以下是使用Python和Keras庫構建LSTM模型的指南。 1. 安裝
    的頭像 發表于 11-13 10:10 ?522次閱讀

    LSTM神經網絡的訓練數據準備方法

    LSTM(Long Short-Term Memory,長短記憶)神經網絡的訓練數據準備方法是一個關鍵步驟,它直接影響到模型的性能和效果。以下是一些關于
    的頭像 發表于 11-13 10:08 ?795次閱讀

    LSTM神經網絡的結構與工作機制

    LSTM(Long Short-Term Memory,長短記憶)神經網絡是一種特殊的循環神經網絡(RNN),設計用于解決長期依賴問題,特
    的頭像 發表于 11-13 10:05 ?545次閱讀

    LSTM神經網絡在語音識別中的應用實例

    語音識別技術是人工智能領域的一個重要分支,它使計算機能夠理解和處理人類語言。隨著深度學習技術的發展,特別是長短記憶LSTM)神經網絡的引入,語音識別的準確性和效率得到了顯著提升。
    的頭像 發表于 11-13 10:03 ?741次閱讀

    LSTM神經網絡的調參技巧

    長短時記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在實際應用中,
    的頭像 發表于 11-13 10:01 ?770次閱讀

    LSTM神經網絡的優缺點分析

    長短記憶(Long Short-Term Memory, LSTM)神經網絡是一種特殊的循環神經網絡(RNN),由Hochreiter和S
    的頭像 發表于 11-13 09:57 ?1911次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的一個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,特別是循環神經網絡(RNN)及其變體——長短記憶LSTM
    的頭像 發表于 11-13 09:56 ?471次閱讀

    LSTM神經網絡在時間序列預測中的應用

    時間序列預測是數據分析中的一個重要領域,它涉及到基于歷史數據預測未來值。隨著深度學習技術的發展,長短記憶LSTM)神經網絡因其在處理序列數據方面的優勢而受到廣泛關注。
    的頭像 發表于 11-13 09:54 ?787次閱讀

    LSTM神經網絡的基本原理 如何實現LSTM神經網絡

    LSTM長短記憶)神經網絡是一種特殊的循環神經網絡(RNN),它能夠學習長期依賴信息。在處理序列數據時,如時間序列分析、自然語言處理等,
    的頭像 發表于 11-13 09:53 ?560次閱讀

    LSTM模型的基本組成

    長短記憶網絡(Long Short-Term Memory, LSTM)是一種特殊的循環神經網絡(RNN)架構,它在處理序列數據時能夠捕捉
    的頭像 發表于 07-10 17:01 ?1521次閱讀

    如何理解RNN與LSTM神經網絡

    在深入探討RNN(Recurrent Neural Network,循環神經網絡)與LSTM(Long Short-Term Memory,長短記憶
    的頭像 發表于 07-09 11:12 ?689次閱讀

    循環神經網絡的基本概念

    循環神經網絡的基本概念、循環機制、長短時記憶網絡LSTM)、門控循環單元(GRU)等方面進行介紹。 循環神經
    的頭像 發表于 07-04 14:31 ?776次閱讀

    用于自然語言處理的神經網絡有哪些

    取得了顯著進展,成為處理自然語言任務的主要工具。本文將詳細介紹幾種常用于NLP的神經網絡模型,包括遞歸神經網絡(RNN)、長短時記憶網絡
    的頭像 發表于 07-03 16:17 ?1367次閱讀
    主站蜘蛛池模板: 良家人妻无码专区九色颜射| bl(高h)文| 亚洲精品久久久无码| 在线成 人av影院| 岛国大片在线观看免费版| 好男人在线高清WWW免费观看| 欧美亚洲精品真实在线| 亚洲国产日韩欧美在线a乱码| babesvideos性欧美| 九色91精品国产网站| 四虎国产精品免费观看视频| 91综合精品网站久久| 国产人成精品综合欧美成人| 欧美三级不卡在线观线看| 野花日本韩国视频免费高清观看 | 99国产精品久久久久久久日本竹| 国产精品久久久精品a级小说| 男欢女爱免费视频| 野花高清在线观看免费3中文| 国产骚妇BB网| 日本一本2017国产| 99热久久这里只精品国产WWW | 暖暖 视频 免费 高清 在线观看| 亚洲综合中文| 极品内射少妇精品无码视频| 性xxx欧美| 国产精品美女久久久久AV超清 | 韩国演艺圈qvod| 无人区日本电影在线观看高清| 超碰在线视频公开| 青青草在线视频| 别插我B嗯啊视频免费| 欧美日韩亚洲中字二区| 最美白虎逼| 猛烈抽插H1V1| 99精品国产福利在线观看| 玖玖爱这里只有精品视频| 中文字幕亚洲乱码熟女在线| 老女老肥熟国产在线视频| 征服丝袜旗袍人妻| 口工漫画r18全彩啪啪|