色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點(diǎn)以及RNN模型的幾種應(yīng)用

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:人工智能與算法學(xué)習(xí) ? 作者:人工智能與算法學(xué) ? 2021-05-13 10:47 ? 次閱讀

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的載體,而神經(jīng)網(wǎng)絡(luò)模型中,最經(jīng)典非RNN模型所屬,盡管它不完美,但它具有學(xué)習(xí)歷史信息的能力。后面不管是encode-decode 框架,還是注意力模型,以及自注意力模型,以及更加強(qiáng)大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強(qiáng)的。

這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點(diǎn),RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),RNN的缺陷,以及GRU,LSTM是如何試圖解決這些問(wèn)題,RNN變體等。

這篇文章最大特點(diǎn)是圖解版本,其次語(yǔ)言簡(jiǎn)練,總結(jié)全面。

概述

傳統(tǒng)RNN的體系結(jié)構(gòu)。Recurrent neural networks,也稱為RNNs,是一類允許先前的輸出用作輸入,同時(shí)具有隱藏狀態(tài)的神經(jīng)網(wǎng)絡(luò)。它們通常如下所示:

e2923ba4-b364-11eb-bf61-12bb97331649.png

對(duì)于每一時(shí)步 , 激活函數(shù) ,輸出 被表達(dá)為:

這里是時(shí)間維度網(wǎng)絡(luò)的共享權(quán)重系數(shù)

是激活函數(shù)

e2a0bf26-b364-11eb-bf61-12bb97331649.png

下表總結(jié)了典型RNN架構(gòu)的優(yōu)缺點(diǎn):

處理任意長(zhǎng)度的輸入 計(jì)算速度慢
模型形狀不隨輸入長(zhǎng)度增加 難以獲取很久以前的信息
計(jì)算考慮了歷史信息 無(wú)法考慮當(dāng)前狀態(tài)的任何未來(lái)輸入
權(quán)重隨時(shí)間共享
優(yōu)點(diǎn) 缺點(diǎn)

RNNs應(yīng)用

RNN模型主要應(yīng)用于自然語(yǔ)言處理和語(yǔ)音識(shí)別領(lǐng)域。下表總結(jié)了不同的應(yīng)用:

一對(duì)一

e2d8925c-b364-11eb-bf61-12bb97331649.png

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)

一對(duì)多

e2e514fa-b364-11eb-bf61-12bb97331649.png

音樂(lè)生成

多對(duì)一

e2f52660-b364-11eb-bf61-12bb97331649.png

e303047e-b364-11eb-bf61-12bb97331649.png

機(jī)器翻譯e31699da-b364-11eb-bf61-12bb97331649.png

RNN 類型圖解例子

對(duì)于RNN網(wǎng)絡(luò),所有時(shí)間步的損失函數(shù) 是根據(jù)每個(gè)時(shí)間步的損失定義的,如下所示:損失函數(shù)

時(shí)間反向傳播

在每個(gè)時(shí)間點(diǎn)進(jìn)行反向傳播。在時(shí)間步,損失相對(duì)于權(quán)重矩陣的偏導(dǎo)數(shù)表示如下:

處理長(zhǎng)短依賴

常用激活函數(shù)

RNN模塊中最常用的激活函數(shù)描述如下:

5e33166de-b364-11eb-bf61-12bb97331649.png

e33ef948-b364-11eb-bf61-12bb97331649.png

e3539de4-b364-11eb-bf61-12bb97331649.png

SigmoidTanhRELU

梯度消失/爆炸

在RNN中經(jīng)常遇到梯度消失和爆炸現(xiàn)象。之所以會(huì)發(fā)生這種情況,是因?yàn)楹茈y捕捉到長(zhǎng)期的依賴關(guān)系,因?yàn)槌朔ㄌ荻瓤梢噪S著層的數(shù)量呈指數(shù)遞減/遞增。

梯度修剪

梯度修剪是一種技術(shù),用于執(zhí)行反向傳播時(shí),有時(shí)遇到的梯度爆炸問(wèn)題。通過(guò)限制梯度的最大值,這種現(xiàn)象在實(shí)踐中得以控制。

e367c954-b364-11eb-bf61-12bb97331649.png

門的類型

為了解決消失梯度問(wèn)題,在某些類型的RNN中使用特定的門,并且通常有明確的目的。它們通常標(biāo)注為,等于:

其中,是特定于門的系數(shù),是sigmoid函數(shù)。主要內(nèi)容總結(jié)如下表:

Gated Recurrent Unit(GRU)和長(zhǎng)-短期記憶單元(LSTM)處理傳統(tǒng)RNNs遇到的消失梯度問(wèn)題,LSTM是GRU的推廣。下表總結(jié)了每種結(jié)構(gòu)的特征方程:GRU/LSTM

e3730e68-b364-11eb-bf61-12bb97331649.png

注:符號(hào)表示兩個(gè)向量之間按元素相乘。

RNN的變體

下表總結(jié)了其他常用的RNN模型:

e3a643e6-b364-11eb-bf61-12bb97331649.png

e3e31410-b364-11eb-bf61-12bb97331649.png

Bidirectional (BRNN)Deep (DRNN)

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4345

    瀏覽量

    62870
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    6900

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)RNN圖解!

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    RNN的損失函數(shù)與優(yōu)化算法解析

    函數(shù)有以下幾種: 交叉熵?fù)p失函數(shù) :交叉熵(Cross Entropy)是一種評(píng)估兩個(gè)概率分布之間差異的度量方法,即通過(guò)比較模型預(yù)測(cè)的概率分布和真實(shí)概率分布之間的差異,來(lái)評(píng)估模型訓(xùn)練的性能。在
    的頭像 發(fā)表于 11-15 10:16 ?567次閱讀

    RNN在實(shí)時(shí)數(shù)據(jù)分析中的應(yīng)用

    隨著大數(shù)據(jù)時(shí)代的到來(lái),實(shí)時(shí)數(shù)據(jù)分析變得越來(lái)越重要。在眾多的機(jī)器學(xué)習(xí)模型中,遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,簡(jiǎn)稱RNN)因其在處理序列數(shù)據(jù)方面的優(yōu)勢(shì),被廣泛應(yīng)用于實(shí)時(shí)數(shù)據(jù)
    的頭像 發(fā)表于 11-15 10:11 ?367次閱讀

    RNN的應(yīng)用領(lǐng)域及未來(lái)發(fā)展趨勢(shì)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一種適合于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型。由于其獨(dú)特的循環(huán)結(jié)構(gòu)RNN
    的頭像 發(fā)表于 11-15 10:10 ?642次閱讀

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))模型深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們?cè)?b class='flag-5'>結(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對(duì)RN
    的頭像 發(fā)表于 11-15 10:05 ?757次閱讀

    深度學(xué)習(xí)中RNN的優(yōu)勢(shì)與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過(guò)在每個(gè)時(shí)間步長(zhǎng)上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時(shí)間序列數(shù)據(jù)中的長(zhǎng)期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?574次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?428次閱讀

    AI大模型與小模型優(yōu)缺點(diǎn)

    在人工智能(AI)的廣闊領(lǐng)域中,模型作為算法與數(shù)據(jù)之間的橋梁,扮演著至關(guān)重要的角色。根據(jù)模型的大小和復(fù)雜度,我們可以將其大致分為AI大模型和小模型。這兩種
    的頭像 發(fā)表于 07-10 10:39 ?3275次閱讀

    CNN與RNN的關(guān)系?

    深度學(xué)習(xí)的廣闊領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是兩種極為重要且各具特色的神經(jīng)網(wǎng)絡(luò)模型。它們各自在圖像處理、自然語(yǔ)言處理等領(lǐng)域展現(xiàn)出卓越的性能。本文將從概念、原理、應(yīng)用場(chǎng)景及代碼示例等方面詳細(xì)探討CNN與
    的頭像 發(fā)表于 07-08 16:56 ?882次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元素進(jìn)行建模。RNN在自然語(yǔ)言處理、語(yǔ)音識(shí)別、
    的頭像 發(fā)表于 07-05 09:50 ?685次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    時(shí)間步的輸入,從而實(shí)現(xiàn)對(duì)時(shí)間序列數(shù)據(jù)的處理。RNN的循環(huán)結(jié)構(gòu)使得網(wǎng)絡(luò)能夠在處理當(dāng)前時(shí)間步的數(shù)據(jù)時(shí),考慮到之前
    的頭像 發(fā)表于 07-05 09:49 ?757次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    的應(yīng)用。本文將介紹RNN的原理、結(jié)構(gòu)、優(yōu)化方法以及實(shí)際應(yīng)用。 RNN的基本原理 1.1 循環(huán)結(jié)構(gòu) RNN
    的頭像 發(fā)表于 07-04 15:40 ?663次閱讀

    RNN神經(jīng)網(wǎng)絡(luò)適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它可以處理序列數(shù)據(jù),具有記憶功能。RNN在許多領(lǐng)域都有廣泛的應(yīng)用,以下是一些RNN
    的頭像 發(fā)表于 07-04 15:04 ?1050次閱讀

    什么是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))?RNN的基本原理和優(yōu)缺點(diǎn)

    的時(shí)序信息和語(yǔ)義信息。RNN的提出基于記憶模型的想法,期望網(wǎng)絡(luò)能夠記住前面出現(xiàn)的特征,并依據(jù)這些特征推斷后續(xù)的結(jié)果。由于其獨(dú)特的循環(huán)結(jié)構(gòu)RNN在自然語(yǔ)言處理(NLP)、語(yǔ)音識(shí)別、時(shí)間
    的頭像 發(fā)表于 07-04 11:48 ?4082次閱讀

    NLP模型RNN與CNN的選擇

    在NLP中的應(yīng)用場(chǎng)景、工作原理、優(yōu)缺點(diǎn)以及在選擇時(shí)應(yīng)考慮的關(guān)鍵因素,以期為讀者提供一個(gè)全面而深入的理解。
    的頭像 發(fā)表于 07-03 15:59 ?621次閱讀

    什么是RNN (循環(huán)神經(jīng)網(wǎng)絡(luò))?

    循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是一種深度學(xué)習(xí)結(jié)構(gòu),它使用過(guò)去的信息來(lái)提高網(wǎng)絡(luò)處理當(dāng)前和將來(lái)輸入的性能。RNN 的獨(dú)特之處在于該網(wǎng)絡(luò)包含隱藏狀態(tài)和循環(huán)。
    發(fā)表于 02-29 14:56 ?4159次閱讀
    什么是<b class='flag-5'>RNN</b> (循環(huán)神經(jīng)網(wǎng)絡(luò))?
    主站蜘蛛池模板: 午夜久久影院 | 青柠在线电影高清免费观看 | 久久久久国产一级毛片高清片 | 极品少妇粉嫩小泬啪啪AV | 亚洲精品中文字幕一二三四区 | 欧美日韩888在线观看 | 97在线超碰免费视频 | 乳色吐息未增删樱花ED在线观看 | 午夜一级毛片看看 | 日本xxx在线观看免费播放 | 十分钟免费视频大全在线观看 | 尤物国产在线精品三区 | 国产成人亚洲综合无 | 99在线这精品视频 | 国产精品视频一区二区猎奇 | 一本大道香蕉中文在线视频观看 | 暖暖直播免费观看韩国 | 少妇仑乱A毛片 | 偷窥国产亚洲免费视频 | 亚洲成a人片777777久久 | 性绞姿始动作动态图 | 暖暖的视频完整视频免费韩国 | 魅男mangay | 亚洲精品天堂无码中文字幕影院 | 亚洲人成电影网站色2017 | 久久亚洲这里只有精品18 | 羞羞一区二区三区四区片 | MD传媒在线观看佳片 | 国产午夜精品鲁丝片 | 51vv视频社区| 久久精品国产亚洲AV天美18 | 果冻传媒9CM在线观看 | 日日操夜夜摸 | 日本枯瘦娇小 | 国产精品人妻无码久久久奥特曼 | 亚洲国产综合久久久无码色伦 | 亚洲国产精品久久又爽黄A片 | 久青草影院 | 动漫AV纯肉无码AV电影网 | 一本道手机无码在线看 | 伊人狠狠丁香婷婷综合尤物 |