色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind最新提出“神經(jīng)算術(shù)邏輯單元”,旨在解決神經(jīng)網(wǎng)絡(luò)數(shù)值模擬能力不足的問題

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-08-05 09:54 ? 次閱讀

DeepMind最新提出“神經(jīng)算術(shù)邏輯單元”,旨在解決神經(jīng)網(wǎng)絡(luò)數(shù)值模擬能力不足的問題。與傳統(tǒng)架構(gòu)相比,NALU在訓(xùn)練期間的數(shù)值范圍內(nèi)和范圍外都得到了更好的泛化。論文引起大量關(guān)注,本文附上大神的Keras實(shí)現(xiàn)。

在昆蟲、哺乳動(dòng)物和人類等許多物種的行為中,表示和操縱數(shù)值的能力都是顯而易見的。這表明基本的定量推理是智能intelligence)的一個(gè)基本組成部分。

雖然神經(jīng)網(wǎng)絡(luò)能夠在給出適當(dāng)?shù)膶W(xué)習(xí)信號(hào)的情況下成功地表示和操縱數(shù)值量,但它們學(xué)習(xí)的行為通常不會(huì)表現(xiàn)出系統(tǒng)的泛化。具體來說,當(dāng)在測(cè)試時(shí)遇到訓(xùn)練時(shí)使用的數(shù)值范圍之外的數(shù)值時(shí),即使目標(biāo)函數(shù)很簡單(例如目標(biāo)函數(shù)僅取決于聚合計(jì)數(shù)或線性外推),也經(jīng)常會(huì)出現(xiàn)失敗。

這種失敗表明,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)行為的特點(diǎn)是記憶,而不是系統(tǒng)的抽象。觸發(fā)外推失敗的輸入分布變化是否具有實(shí)際意義,取決于訓(xùn)練過的模型將在何處運(yùn)行。然而,有相當(dāng)多的證據(jù)表明,像蜜蜂這樣簡單的動(dòng)物都能夠表現(xiàn)出系統(tǒng)的數(shù)值外推(numerical extrapolation)能力,這表明基于數(shù)值的系統(tǒng)化推理具有生態(tài)學(xué)上的優(yōu)勢(shì)。

DeepMind、牛津大學(xué)和倫敦大學(xué)學(xué)院的多名研究人員最新發(fā)表的論文“Neural Arithmetic Logic Units”,旨在解決這個(gè)問題。研究人員開發(fā)了一種新的模塊,可以與標(biāo)準(zhǔn)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(如LSTM或convnet)結(jié)合使用,但偏向于學(xué)習(xí)系統(tǒng)的數(shù)值計(jì)算。他們的策略是將數(shù)值表示為沒有非線性的單個(gè)神經(jīng)元。對(duì)于這些single-value的神經(jīng)元,研究人員應(yīng)用能夠表示簡單函數(shù)的運(yùn)算符(例如 +, - ,×等)。這些運(yùn)算符由參數(shù)控制,這些參數(shù)決定用于創(chuàng)建每個(gè)輸出的輸入和操作。盡管有這樣的組合特征,但它們是可微的,因此可以通過反向傳播來學(xué)習(xí)。

摘要

神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)表示和操作數(shù)值信息,但它們很少能很好地推廣到訓(xùn)練中遇到的數(shù)值范圍之外。為了支持更系統(tǒng)的數(shù)值外推(numerical extrapolation),我們提出一種新的架構(gòu),它將數(shù)值表示為線性激活函數(shù),使用原始算術(shù)運(yùn)算符進(jìn)行操作,并由學(xué)習(xí)門(learned gates)控制。

我們將這個(gè)模塊稱為神經(jīng)算術(shù)邏輯單元(neural arithmetic logic unit, NALU),參照自傳統(tǒng)處理器中的算術(shù)邏輯單元。實(shí)驗(yàn)表明,NALU增強(qiáng)的神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)跟蹤時(shí)間,對(duì)數(shù)字圖像執(zhí)行算術(shù)運(yùn)算,將數(shù)字語言轉(zhuǎn)化為實(shí)值標(biāo)量,執(zhí)行計(jì)算機(jī)代碼,以及對(duì)圖像中的對(duì)象進(jìn)行計(jì)數(shù)。與傳統(tǒng)架構(gòu)相比,我們?cè)谟?xùn)練期間的數(shù)值范圍內(nèi)和范圍外都得到了更好的泛化,外推經(jīng)常超出訓(xùn)練數(shù)值范圍幾個(gè)數(shù)量級(jí)之外。

這篇論文一經(jīng)發(fā)表即引起很多關(guān)注,有人認(rèn)為這篇論文比一眼看上去要更重要,Reddit用戶claytonkb表示:“結(jié)合最近的D2NN,我們可以構(gòu)建超低功耗的芯片,可以在恒定時(shí)間計(jì)算超級(jí)復(fù)雜的函數(shù),我們很快就會(huì)轉(zhuǎn)向異構(gòu)計(jì)算架構(gòu)。”

很快有大神在Keras做出了NALU網(wǎng)絡(luò)的實(shí)現(xiàn),感受一下:

https://github.com/kgrm/NALU

神經(jīng)累加器和神經(jīng)算術(shù)邏輯單元

算術(shù)邏輯單元(Arithmetic Logic Unit, ALU)是中央處理器的執(zhí)行單元,是所有中央處理器的核心組成部分,由與門和或門構(gòu)成的算數(shù)邏輯單元,主要功能是進(jìn)行二進(jìn)制的算術(shù)運(yùn)算,如加減乘。

在這篇論文中,研究者提出兩種能夠?qū)W習(xí)以系統(tǒng)的方式表示和操作數(shù)字的模型。第一種方法支持累加積累量(accumulate quantities additively)的能力,這是線性外推的理想歸納偏差。這個(gè)模型構(gòu)成了第二個(gè)模型的基礎(chǔ),即支持乘法外推(multiplicative extrapolation)。該模型還說明了如何將任意算術(shù)函數(shù)的歸納偏差有效地合并到端到端模型中。

第一個(gè)模型是神經(jīng)累加器(Neural Accumulator,NAC),它是線性層的一種特殊情況,其變換矩陣W僅由-1,0和1組成;也就是說,它的輸出是輸入向量中行的加法或減法。這可以防止層在將輸入映射到輸出時(shí)更改數(shù)字表示的比例,這意味著無論將多少個(gè)操作鏈接在一起,它們?cè)谡麄€(gè)模型中都是一致的。我們通過以下方式鼓勵(lì)W內(nèi)的0,1和-1來改善簡單線性層的歸納偏差。

由于硬約束強(qiáng)制W的每個(gè)元素都是{-1,0,1}中的一個(gè),這會(huì)使學(xué)習(xí)變得困難,我們提出W在無約束參數(shù)方面的連續(xù)和可微分參數(shù)化:。 這種形式便于用梯度下降進(jìn)行學(xué)習(xí),并產(chǎn)生矩陣,其元素保證在[-1,1]并且偏向接近-1,0或1。

圖2:神經(jīng)累加器(NAC)是其輸入的線性變換。 變換矩陣是tanh(W)和σ(M)的元素乘積。 神經(jīng)算術(shù)邏輯單元(NALU)使用兩個(gè)帶有綁定權(quán)重的NAC來啟用加/減(較小的紫色cell)和乘法/除法(較大的紫色cell),由門(橙色的cell)控制

雖然加法和減法使得許多有用的系統(tǒng)泛化成為可能,但是可能需要學(xué)習(xí)更復(fù)雜的數(shù)學(xué)函數(shù)(例如乘法)的強(qiáng)健能力。 圖2描述了這樣一個(gè)單元:神經(jīng)算術(shù)邏輯單元(NALU),它學(xué)習(xí)兩個(gè)子單元之間的加權(quán)和,一個(gè)能夠執(zhí)行加法和減法,另一個(gè)能夠執(zhí)行乘法,除法和冪函數(shù),如。 重要的是,NALU演示了NAC如何通過門控子操作進(jìn)行擴(kuò)展,從而促進(jìn)了新類型數(shù)值函數(shù)的端到端學(xué)習(xí)。

NALU由兩個(gè)NAC單元(紫色單元)組成,這兩個(gè)單元由學(xué)習(xí)的S形門g(橙色單元)內(nèi)插,這樣如果加/減子單元的輸出值應(yīng)用權(quán)重為1(on),則乘法/除法子單元為0(off),反之亦然。 第一個(gè)NAC(較小的紫色子單元)計(jì)算累加向量a,存儲(chǔ)NALU的加法/減法運(yùn)算的結(jié)果; 它與原始NAC的計(jì)算方式相同(即a = Wx)。 第二個(gè)NAC(較大的紫色子單元)在對(duì)數(shù)空間中運(yùn)行,因此能夠?qū)W習(xí)乘法和除法,將結(jié)果存儲(chǔ)在m:

總之,這個(gè)單元可以學(xué)習(xí)由乘法,加法,減法,除法和冪函數(shù)組成的算術(shù)函數(shù),其推斷方式是在訓(xùn)練期間觀察到的范圍之外的數(shù)字。

實(shí)驗(yàn)和結(jié)果

我們?cè)诙鄠€(gè)任務(wù)領(lǐng)域(合成、圖像、文本和代碼)、學(xué)習(xí)信號(hào)(監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí))和結(jié)構(gòu)(前饋和循環(huán))進(jìn)行實(shí)驗(yàn)。結(jié)果表明,我們提出的模型可以學(xué)習(xí)捕獲數(shù)據(jù)潛在數(shù)值性質(zhì)的表示函數(shù),并將其推廣到比訓(xùn)練中觀察到的數(shù)值大幾個(gè)數(shù)量級(jí)的數(shù)值。我們還觀察到,即使不需要外推,我們的模塊相對(duì)于線性層也顯示出優(yōu)越的計(jì)算偏差。在一種情況下,我們的模型在誤差率上超過了最先進(jìn)的圖像計(jì)數(shù)網(wǎng)絡(luò)54%。

任務(wù)1:簡單的函數(shù)學(xué)習(xí)任務(wù)

表1:靜態(tài)和循環(huán)任務(wù)的插值和外推誤差率。

任務(wù)2;MNIST計(jì)數(shù)和算術(shù)任務(wù)

表2:長度為1,10,100和1000的序列的MNIST計(jì)數(shù)和加法任務(wù)的準(zhǔn)確度。

結(jié)果顯示,NAC和NALU都能很好地推斷和插值。

任務(wù)3:語言到數(shù)字的翻譯任務(wù)

表3:將數(shù)字串轉(zhuǎn)換為標(biāo)量的平均絕對(duì)誤差(MAE)比較。

圖3:對(duì)先前未見過的查詢的中間NALU預(yù)測(cè)。

圖3顯示了隨機(jī)選擇的測(cè)試實(shí)例中NALU的中間狀態(tài)。 在沒有監(jiān)督的情況下,模型學(xué)會(huì)跟蹤當(dāng)前token的未知數(shù)的合理估計(jì),這允許網(wǎng)絡(luò)預(yù)測(cè)它以前從未見過的token。

程序評(píng)估

圖4:簡單的程序評(píng)估,外推到更大的值。

我們比較了三種流行的RNN(UGRNN,LSTM和DNC),結(jié)果顯示即使域增加了兩個(gè)數(shù)量級(jí),外推也是穩(wěn)定的。

學(xué)習(xí)在網(wǎng)格世界環(huán)境中跟蹤時(shí)間

圖5 :(上)Grid-World環(huán)境中時(shí)間跟蹤任務(wù)的幀。 智能體(灰色)必須在指定時(shí)間移動(dòng)到目的地(紅色)。 (下)NAC提高了A3C智能體所學(xué)到的外推能力。

MNIST奇偶校驗(yàn)預(yù)測(cè)任務(wù)和消融研究

表4:關(guān)于MNIST奇偶校驗(yàn)任務(wù)的affine層和NAC之間的消融研究。

表4總結(jié)了變體模型的性能。結(jié)果顯示,去除偏差并對(duì)權(quán)重應(yīng)用非線性顯著提高了端到端模型的準(zhǔn)確性,即使大多數(shù)參數(shù)不在NAC中,NAC將先前最佳結(jié)果的誤差減少了54%。

結(jié)論

目前神經(jīng)網(wǎng)絡(luò)中數(shù)值模擬的方法還不夠完善,因?yàn)閿?shù)值表示方法不能推廣到訓(xùn)練中觀察到的范圍之外。我們已經(jīng)展示了NAC和NALU是如何在廣泛的任務(wù)領(lǐng)域中糾正這兩個(gè)缺點(diǎn)的,它促進(jìn)了數(shù)字表示和在訓(xùn)練過程中觀察到的范圍之外的數(shù)值表示函數(shù)。然而,NAC或NALU不太可能是每個(gè)任務(wù)的完美解決方案。相反,它們舉例說明了一種通用設(shè)計(jì)策略,用于創(chuàng)建具有針對(duì)目標(biāo)函數(shù)類的偏差的模型。這種設(shè)計(jì)策略是通過我們提出的單神經(jīng)元數(shù)值表示(single-neuron number representation)來實(shí)現(xiàn)的,它允許將任意(可微的)數(shù)值函數(shù)添加到模塊中,并通過學(xué)習(xí)門控制,正如NALU在加法/減法和乘法/除法之間實(shí)現(xiàn)的那樣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:DeepMind重磅:神經(jīng)算術(shù)邏輯單元,Keras實(shí)現(xiàn)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

    源程序  4.3 旅行商問題(TSP)的HNN求解  Hopfield模型求解TSP源程序  第5章 隨機(jī)型神經(jīng)網(wǎng)絡(luò)  5.1 模擬退火算法  5.2 Boltzmann機(jī)  Boltzmann機(jī)模型
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡介

    神經(jīng)網(wǎng)絡(luò)簡介
    發(fā)表于 08-05 21:01

    求助大神關(guān)于神經(jīng)網(wǎng)絡(luò)的問題

    求助大神 小的現(xiàn)在有個(gè)難題: 一組車重實(shí)時(shí)數(shù)據(jù) 對(duì)應(yīng)一個(gè)車重的最終數(shù)值(一個(gè)一維數(shù)組輸入對(duì)應(yīng)輸出一個(gè)數(shù)值) 這其中可能經(jīng)過均值、方差、去掉N個(gè)最大值、、、等等的計(jì)算 我的目的就是弄清楚這個(gè)中間計(jì)算過程 最近實(shí)在想不出什么好辦法就打算試試
    發(fā)表于 07-14 13:35

    容差模擬電路軟故障診斷的小波與量子神經(jīng)網(wǎng)絡(luò)方法設(shè)計(jì)

    作者:李云紅0 引言自20世紀(jì)70年代以來,模擬電路故障診斷領(lǐng)域已經(jīng)取得了一定的研究成果,近年來,基于神經(jīng)網(wǎng)絡(luò)技術(shù)的現(xiàn)代模擬電路軟故障診斷方法已成為新的研究熱點(diǎn),神經(jīng)網(wǎng)絡(luò)的泛化
    發(fā)表于 07-05 08:06

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問題,我們似乎可以給出相對(duì)簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實(shí)由兩部分組成:前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺不是很難,只不過一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復(fù)雜的實(shí)際問題。那有哪些辦法能實(shí)現(xiàn)人工神經(jīng)
    發(fā)表于 08-01 08:06

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲(chǔ)能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò)中,多層前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-08 06:11

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過對(duì)系統(tǒng)性能的學(xué)習(xí)來實(shí)現(xiàn)具有最佳組合的PID控
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)的思想起源于1943年McCulloch 和 Pitts 提出神經(jīng)元模型[19],簡稱 MCP 神經(jīng)元模 型。它是利用計(jì)算機(jī)來模擬
    發(fā)表于 08-02 10:39

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹,人工神經(jīng)網(wǎng)絡(luò)(簡稱神經(jīng)網(wǎng)絡(luò),Neural Network)是模擬人腦思維方式的數(shù)學(xué)模型。 神經(jīng)網(wǎng)絡(luò)是在現(xiàn)代生物
    發(fā)表于 12-06 15:07 ?0次下載

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    不同的神經(jīng)網(wǎng)絡(luò)模型,它們?cè)诮Y(jié)構(gòu)、原理、應(yīng)用等方面都存在一定的差異。本文將從多個(gè)方面對(duì)這兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行詳細(xì)的比較和分析。 引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元連接和信息傳遞的計(jì)算模型,它
    的頭像 發(fā)表于 07-02 14:24 ?4634次閱讀
    主站蜘蛛池模板: 蜜芽视频在线观看视频免费播放 | 欧美在线亚洲综合国产人 | 恋夜直播午夜秀场最新 | 国产视频这里只有精品 | 簧片免费观看 | 男女啪啪久久精品亚洲A | 姉调无修版ova国语版 | 国内精品日本久久久久影院 | 涩涩爱涩涩电影网站 | 中文字幕无码亚洲字幕成A人蜜桃 | 青青热久精品国产亚洲AV无码 | 国产在线亚洲精品观 | 男女交性视频无遮挡全过程 | 一个人免费完整观看日本 | 日本激情在线 | 麻豆第一区MV免费观看网站 | 嗯啊…跟校草在教室里做h 嗯 用力啊 嗯 c我 啊哈老师 | 亚洲国产精品线在线观看 | 天天拍拍国产在线视频 | 青草伊人久久 | 日韩精品一卡二卡三卡四卡2021 | 秋霞电影网午夜鲁丝片 | 三级中国免费的 | 美女打开双腿扒开屁股男生 | 67194在线入口免费 | 亚洲.欧美.中文字幕在线观看 | 日本无码专区亚洲麻豆 | 久久青青草原精品国产软件 | 成人AV精品视频 | 美女国产毛片A区内射 | RAPPER性骚扰大开黄腔 | 国产在线精品亚洲一品区 | 人妖干美女| 99RE6这里只有精品国产AV | 国产午夜亚洲精品区 | 成人18视频在线 | 国产 交换 丝雨 巅峰 | 精品动漫国产亚洲AV在线观看 | 中国老太60old mantv | 国产午夜福利伦理300 | 2017日日干 |