色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GRU模型實戰(zhàn)訓(xùn)練 智能決策更精準

恩智浦MCU加油站 ? 來源:恩智浦MCU加油站 ? 2024-06-13 09:22 ? 次閱讀

上一期文章帶大家認識了一個名為GRU的新朋友, GRU本身自帶處理時序數(shù)據(jù)的屬性,特別擅長對于時間序列的識別和檢測(例如音頻傳感器信號等)。GRU其實是RNN模型的一個衍生形式,巧妙地設(shè)計了兩個門控單元:reset門和更新門。reset門負責針對歷史遺留的狀態(tài)進行重置,丟棄掉無用信息;更新門負責對歷史狀態(tài)進行更新,將新的輸入與歷史數(shù)據(jù)集進行整合。通過模型訓(xùn)練,讓模型能夠自動調(diào)整這兩個門控單元的狀態(tài),以期達到歷史數(shù)據(jù)與最新數(shù)據(jù)和諧共存的目的。

理論知識掌握了,下面就來看看如何訓(xùn)練一個GRU模型吧。

訓(xùn)練平臺選用Keras,請?zhí)崆白孕邪惭bKeras開發(fā)工具。直接上代碼,首先是數(shù)據(jù)導(dǎo)入部分,我們直接使用mnist手寫字體數(shù)據(jù)集:

import numpy as np
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import GRU, Dense
from tensorflow.keras.datasets import mnist
from tensorflow.keras.utils import to_categorical
from tensorflow.keras.models import load_model


# 準備數(shù)據(jù)集
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train = x_train.astype('float32') / 255.0
x_test = x_test.astype('float32') / 255.0
y_train = to_categorical(y_train, 10)
y_test = to_categorical(y_test, 10)

模型構(gòu)建與訓(xùn)練:

# 構(gòu)建GRU模型
model = Sequential()
model.add(GRU(128, input_shape=(28, 28), stateful=False, unroll=False))
model.add(Dense(10, activation='softmax'))


# 編譯模型
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])


# 模型訓(xùn)練
model.fit(x_train, y_train, batch_size=128, epochs=10, validation_data=(x_test, y_test))

這里,眼尖的伙伴應(yīng)該是注意到了,GRU模型構(gòu)建的時候,有兩個參數(shù),分別是stateful以及unroll,這兩個參數(shù)是什么意思呢?

GRU層的stateful和unroll是兩個重要的參數(shù),它們對GRU模型的行為和性能有著重要影響:

stateful參數(shù):默認情況下,stateful參數(shù)為False。當stateful設(shè)置為True時,表示在處理連續(xù)的數(shù)據(jù)時,GRU層的狀態(tài)會被保留并傳遞到下一個時間步,而不是每個batch都重置狀態(tài)。這對于處理時間序列數(shù)據(jù)時非常有用,例如在處理長序列時,可以保持模型的狀態(tài)信息,而不是在每個batch之間重置。需要注意的是,在使用stateful時,您需要手動管理狀態(tài)的重置。

unroll參數(shù):默認情況下,unroll參數(shù)為False。當unroll設(shè)置為True時,表示在計算時會展開RNN的循環(huán),這樣可以提高計算性能,但會增加內(nèi)存消耗。通常情況下,對于較短的序列,unroll設(shè)置為True可以提高計算速度,但對于較長的序列,可能會導(dǎo)致內(nèi)存消耗過大。

通過合理設(shè)置stateful和unroll參數(shù),可以根據(jù)具體的數(shù)據(jù)和模型需求來平衡模型的狀態(tài)管理和計算性能。而我們這里用到的mnist數(shù)據(jù)集實際上并不是時間序列數(shù)據(jù),而只是將其當作一個時序數(shù)據(jù)集來用。因此,每個batch之間實際上是沒有顯示的前后關(guān)系的,不建議使用stateful。而是每一個batch之后都要將其狀態(tài)清零。即stateful=False。而unroll參數(shù),大家就可以自行測試了。

模型評估與轉(zhuǎn)換:

# 模型評估
score = model.evaluate(x_test, y_test, verbose=0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])


# 保存模型
model.save("mnist_gru_model.h5")


# 加載模型并轉(zhuǎn)換
converter = tf.lite.TFLiteConverter.from_keras_model(load_model("mnist_gru_model.h5"))
tflite_model = converter.convert()


# 保存tflite格式模型
with open('mnist_gru_model.tflite', 'wb') as f:
    f.write(tflite_model)



便寫好程序后,運行等待訓(xùn)練完畢,可以看到經(jīng)過10個epoch之后,模型即達到了98.57%的測試精度:

44c1e04e-291f-11ef-91d2-92fbcf53809c.png

來看看最終的模型樣子,參數(shù)stateful=False,unroll=True:

44e91506-291f-11ef-91d2-92fbcf53809c.png

這里,我們就會發(fā)現(xiàn),模型的輸入好像被拆分成了很多份,這是因為我們指定了輸入是28*28。第一個28表示有28個時間步,后面的28則表示每一個時間步的維度。這里的時間步,指代的就是歷史的數(shù)據(jù)。

現(xiàn)在,GRU模型訓(xùn)練就全部介紹完畢了,對于機器學(xué)習(xí)深度學(xué)習(xí)感興趣的伙伴們,不妨親自動手嘗試一下,搭建并訓(xùn)練一個屬于自己的GRU模型吧!

希望每一位探索者都能在機器學(xué)習(xí)的道路上不斷前行,收獲滿滿的知識和成果!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • Gru
    Gru
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    7497
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8424

    瀏覽量

    132761
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    6895

原文標題:GRU模型實戰(zhàn)訓(xùn)練,智能決策更精準!

文章出處:【微信號:NXP_SMART_HARDWARE,微信公眾號:恩智浦MCU加油站】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【「大模型啟示錄」閱讀體驗】如何在客服領(lǐng)域應(yīng)用大模型

    地選擇適合的模型。不同的模型具有不同的特點和優(yōu)勢。在客服領(lǐng)域,常用的模型包括循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、長短時記憶網(wǎng)絡(luò)(LSTM)、門控循環(huán)單元(GRU)、Transformer等,以及基
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    ,基礎(chǔ)模型。 ? 大模型是一個簡稱,完整的叫法,應(yīng)該是“人工智能預(yù)訓(xùn)練模型”。預(yù)訓(xùn)練,是一項技
    的頭像 發(fā)表于 11-25 09:29 ?1773次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓(xùn)練</b>出來的及大<b class='flag-5'>模型</b>作用

    ADC128S022怎么能更精準的去采樣?

    問題1 連續(xù)轉(zhuǎn)換模式具體功能 問題2 怎么能更精準的去采樣
    發(fā)表于 11-15 06:02

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標和需求 : 確定你的L
    的頭像 發(fā)表于 11-08 09:30 ?599次閱讀

    谷東科技民航維修智能決策模型榮獲華為昇騰技術(shù)認證

    經(jīng)過華為專業(yè)評測,谷東科技民航維修智能決策模型1.0成功與華為Atlas 800T A2訓(xùn)練服務(wù)器完成并通過了相互兼容性測試認證,正式榮獲華為昇騰技術(shù)認證,被授予Ascend Com
    的頭像 發(fā)表于 09-30 15:22 ?446次閱讀

    大語言模型的預(yù)訓(xùn)練

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)作為人工智能領(lǐng)域的一個重要分支,取得了顯著的進步。其中,大語言模型(Large Language Model, LLM)憑借其強大的語言理解和生成
    的頭像 發(fā)表于 07-11 10:11 ?448次閱讀

    人臉識別模型訓(xùn)練流程

    人臉識別模型訓(xùn)練流程是計算機視覺領(lǐng)域中的一項重要技術(shù)。本文將詳細介紹人臉識別模型訓(xùn)練流程,包括數(shù)據(jù)準備、模型選擇、
    的頭像 發(fā)表于 07-04 09:19 ?1000次閱讀

    人臉識別模型訓(xùn)練是什么意思

    人臉識別模型訓(xùn)練是指通過大量的人臉數(shù)據(jù),使用機器學(xué)習(xí)或深度學(xué)習(xí)算法,訓(xùn)練出一個能夠識別和分類人臉的模型。這個模型可以應(yīng)用于各種場景,如安防監(jiān)
    的頭像 發(fā)表于 07-04 09:16 ?643次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機器學(xué)習(xí)領(lǐng)域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。預(yù)訓(xùn)練模型指的是在大
    的頭像 發(fā)表于 07-03 18:20 ?2935次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓(xùn)練一個深度學(xué)習(xí)模型,本質(zhì)上是通過優(yōu)化算法調(diào)整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?1332次閱讀

    深入GRU:解鎖模型測試新維度

    之前帶大家一起使用Keras訓(xùn)練了一個GRU模型,并使用mnist的手寫字體數(shù)據(jù)集進行了驗證。本期小編將繼續(xù)帶來一篇擴展,即GRU模型的測試
    的頭像 發(fā)表于 06-27 09:36 ?1251次閱讀
    深入<b class='flag-5'>GRU</b>:解鎖<b class='flag-5'>模型</b>測試新維度

    GRU是什么?GRU模型如何讓你的神經(jīng)網(wǎng)絡(luò)更聰明 掌握時間 掌握未來

    大家平時經(jīng)常聽到的GRU是什么呢? 首先來認識下CNN,CNN指代卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network),這是一種在人工智能和機器學(xué)習(xí)領(lǐng)域中常用的神經(jīng)網(wǎng)絡(luò)架構(gòu),特別
    發(fā)表于 06-13 11:42 ?1851次閱讀
    <b class='flag-5'>GRU</b>是什么?<b class='flag-5'>GRU</b><b class='flag-5'>模型</b>如何讓你的神經(jīng)網(wǎng)絡(luò)更聰明 掌握時間 掌握未來

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應(yīng)對復(fù)雜的決策。 相應(yīng)地,我們設(shè)計了兩類任務(wù)來檢驗大語言模型的能力。一類是感性的、無需理性能力的任務(wù),類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言模型在這
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    谷歌模型訓(xùn)練軟件有哪些?谷歌模型訓(xùn)練軟件哪個好?

    谷歌在模型訓(xùn)練方面提供了一些強大的軟件工具和平臺。以下是幾個常用的谷歌模型訓(xùn)練軟件及其特點。
    的頭像 發(fā)表于 03-01 16:24 ?909次閱讀
    主站蜘蛛池模板: 超碰在线97久久视频观看| 床上色APP下载免费版| 手机国产视频福利| 农民下乡在线观看3| 玖玖爱这里只有精品视频| 黑人强伦姧人妻日韩那庞大的| 国产成人精品视频免费大全| 法国剧丝袜情版h级在线电影| JAPANRCEP老熟妇乱子伦视频| 99久久精品国产免费| 2019久久这里只精品热在线观看| 中文字幕精品在线视频| 中国拍三a级的明星女| 中国午夜伦理片| 最近的2019中文字幕国语完整版| 在线观看亚洲AV无码每日更新| 中国bdsmchinesehd| 70岁妇女牲交色牲片| 99久久久国产精品免费调教| 99在线在线视频观看| 啊灬啊灬啊灬快高潮视频| 成人网18免费韩国| 国产精品人妻无码久久久蜜桃| 世界上第一个得抑郁症的人是谁| 日本中文字幕伊人成中文字幕| 全黄H全肉禁乱公| 视频三区 国产盗摄| 亚洲国产AV无码综合在线 | 亚洲中文字幕AV在天堂| 一边啪啪的一边呻吟声口述| 1788福利视频在视频线| 97人妻无码AV碰碰视频| 插骚妇好爽好骚| 国产精品悠悠久久人妻精品| 极品少妇高潮啪啪无码吴梦| 久久电影精品久久99久久| 免费播放美女一级毛片| 日本欧美久久久久免费播放网| 午夜理论片YY4399影院| 一本到道免费线观看| 99久久免热在线观看6|