色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌將AutoML應(yīng)用于Transformer架構(gòu),翻譯結(jié)果飆升!

DPVg_AI_era ? 來源:YXQ ? 2019-06-16 11:29 ? 次閱讀

為了探索AutoML在序列域中的應(yīng)用是否能夠取得的成功,谷歌的研究團隊在進行基于進化的神經(jīng)架構(gòu)搜索(NAS)之后,使用了翻譯作為一般的序列任務(wù)的代理,并找到了Evolved Transformer這一新的Transformer架構(gòu)。Evolved Transformer不僅實現(xiàn)了最先進的翻譯結(jié)果,與原始的Transformer相比,它還展示了語言建模的改進性能。

自幾年前推出以來,Google的Transformer架構(gòu)已經(jīng)應(yīng)用于從制作奇幻小說到編寫音樂和聲的各種挑戰(zhàn)。重要的是,Transformer的高性能已經(jīng)證明,當應(yīng)用于序列任務(wù)(例如語言建模和翻譯)時,前饋神經(jīng)網(wǎng)絡(luò)可以與遞歸神經(jīng)網(wǎng)絡(luò)一樣有效。雖然用于序列問題的Transformer和其他前饋模型越來越受歡迎,但它們的架構(gòu)幾乎完全是手動設(shè)計的,與計算機視覺領(lǐng)域形成鮮明對比。AutoML方法已經(jīng)找到了最先進的模型,其性能優(yōu)于手工設(shè)計的模型。當然,我們想知道AutoML在序列域中的應(yīng)用是否同樣成功。

在進行基于進化的神經(jīng)架構(gòu)搜索(NAS)之后,我們使用翻譯作為一般的序列任務(wù)的代理,我們找到了Evolved Transformer,這是一種新的Transformer架構(gòu),它展示了對各種自然語言處理(NLP)任務(wù)的有希望的改進。Evolved Transformer不僅實現(xiàn)了最先進的翻譯結(jié)果,而且與原始的Transformer相比,它還展示了語言建模的改進性能。我們是將此新模型作為Tensor2Tensor的部分發(fā)布,它可用于任何序列問題。

開發(fā)技術(shù)

要開始進化NAS,我們有必要開發(fā)新技術(shù),因為用于評估每個架構(gòu)的“適應(yīng)性”的任務(wù)——WMT'14英語-德語翻譯——計算量很大。這使得搜索比在視覺領(lǐng)域中執(zhí)行的類似搜索更加昂貴,這可以利用較小的數(shù)據(jù)集,如CIFAR-10。

這些技術(shù)中的第一種是溫啟動——在初始進化種群中播種Transformer架構(gòu)而不是隨機模型。這有助于在我們熟悉的搜索空間區(qū)域中進行搜索,從而使其能夠更快地找到更好的模型。

第二種技術(shù)是我們開發(fā)的一種稱為漸進動態(tài)障礙(PDH)(Progressive Dynamic Hurdles)的新方法,這種算法增強了進化搜索,以便為最強的候選者分配更多的資源,這與先前的工作相反,其中NAS的每個候選模型被分配相同的評估時的資源量。如果模型明顯不好,PDH允許我們提前終止對模型的評估,從而使有前途的架構(gòu)獲得更多資源。

Evolved Transformer簡介

使用這些方法,我們在翻譯任務(wù)上進行了大規(guī)模的NAS,并發(fā)現(xiàn)了Evolved Transformer(ET)。與大多數(shù)序列到序列(seq2seq)神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)一樣,它有一個編碼器,將輸入序列編碼為嵌入,解碼器使用這些嵌入構(gòu)造輸出序列;在翻譯的情況下,輸入序列是要翻譯的句子,輸出序列是翻譯。

演化變壓器最有趣的特征是其編碼器和解碼器模塊底部的卷積層,在兩個地方都以類似的分支模式添加(即輸入在加到一起之前通過兩個單獨的卷積層)。

Evolved Transformer與原始Transformer編碼器架構(gòu)的比較。注意模塊底部的分支卷積結(jié)構(gòu),它獨立地在編碼器和解碼器中形成。

這一點特別有趣,因為在NAS期間編碼器和解碼器架構(gòu)不共享,因此獨立發(fā)現(xiàn)該架構(gòu)對編碼器和解碼器都很有用,這說明了該設(shè)計的優(yōu)勢。雖然最初的Transformer完全依賴于自我關(guān)注,但Evolved Transformer是一種混合體,利用了自我關(guān)注和廣泛卷積的優(yōu)勢。

對Evolved Transformer的評估

為了測試這種新架構(gòu)的有效性,我們首先將它與我們在搜索期間使用的英語-德語翻譯任務(wù)的原始Transformer進行了比較。我們發(fā)現(xiàn)在所有參數(shù)尺寸下,Evolved Transformer具有更好的BLEU和 perplexity performance,擁有最大增益與移動設(shè)備兼容(約700萬個參數(shù)),證明了參數(shù)的有效使用。在更大的尺寸上,Evolved Transformer在WMT'14 En-De上達到了最先進的性能,BLEU得分為29.8,SacreBLEU得分為29.2。

不同尺寸的WMT'14 En-DeEvolved Transformer與原Transformer的比較。性能的最大提高發(fā)生在較小的尺寸上,而ET在較大的尺寸上也顯示出強度,優(yōu)于最大的Transformer,參數(shù)減少37.6%(要比較的模型用綠色圈出)。

為了測試普遍性,我們還在其他NLP任務(wù)上將ET與Transformer進行了比較。首先,我們研究了使用不同語言對的翻譯,發(fā)現(xiàn)ET表現(xiàn)提升,其邊緣與英語-德語相似;再次,由于其有效使用參數(shù),對于中型模型觀察到了最大的提升。我們還比較了使用LM1B進行語言建模的兩種模型的解碼器,并且看到性能提升近2個perplexity。

未來工作

這些結(jié)果是探索體系結(jié)構(gòu)搜索在前饋序列模型中應(yīng)用的第一步。Evolved Transformer作為Tensor2Tensor的一部分已開源,在那里它可以用于任何序列問題。為了提高可重復(fù)性,我們還開源了我們用于搜索的搜索空間,以及實施漸進動態(tài)障礙的Colab。我們期待著看到研究團體用新模型做了什么,并希望其他人能夠利用這些新的搜索技術(shù)!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6211

    瀏覽量

    106438
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3467

    瀏覽量

    42923

原文標題:谷歌將AutoML應(yīng)用于Transformer架構(gòu),翻譯結(jié)果飆升,已開源!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何使用MATLAB構(gòu)建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任務(wù),如機器翻譯Transformer 通過引入自注意力機制使得處理長距離依賴關(guān)系時變得高效。因此 Vaswani 等人的論文強調(diào)“注意力是所需的一切”。
    的頭像 發(fā)表于 02-06 10:21 ?1445次閱讀
    如何使用MATLAB構(gòu)建<b class='flag-5'>Transformer</b>模型

    AI助力實時翻譯耳機

    是一種能夠?qū)崟r一種語言翻譯成另一種語言的耳機設(shè)備。它通常由一個耳機和一個配套的應(yīng)用程序組成,用戶可以通過應(yīng)用程序選擇需要翻譯的語言,并通過耳機聽到翻譯
    的頭像 發(fā)表于 01-24 11:14 ?696次閱讀
    AI助力實時<b class='flag-5'>翻譯</b>耳機

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統(tǒng)治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT中的“T”)的專用芯片。
    的頭像 發(fā)表于 01-06 09:13 ?510次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    SensiML開源了Analytics Studio AutoML引擎

    我們很高興地宣布,我們的AutoML服務(wù)器應(yīng)用程序Analytics Studio很快在開源許可下提供。我們還將推出一個新的開源項目網(wǎng)站,以聯(lián)合一個致力于為 tinyML 模型開發(fā)創(chuàng)建全面的、與硬件無關(guān)的解決方案的開發(fā)人員社區(qū)。此次發(fā)布計劃于初夏進行,我們正準備在您的支
    的頭像 發(fā)表于 11-06 09:36 ?484次閱讀
    SensiML開源了Analytics Studio <b class='flag-5'>AutoML</b>引擎

    英偉達推出歸一化Transformer,革命性提升LLM訓練速度

    了新的突破。 相較于傳統(tǒng)的Transformer架構(gòu),nGPT在保持原有精度的同時,直接大型語言模型(LLM)的訓練速度提升了高達20倍。這一顯著的性能提升,無疑極大地推動AI技術(shù)
    的頭像 發(fā)表于 10-23 11:30 ?514次閱讀

    TI TSC應(yīng)用于各種和多種功能

    電子發(fā)燒友網(wǎng)站提供《TI TSC應(yīng)用于各種和多種功能.pdf》資料免費下載
    發(fā)表于 10-22 10:15 ?0次下載
    <b class='flag-5'>將</b>TI TSC<b class='flag-5'>應(yīng)用于</b>各種和多種功能

    如何 THVD8000 應(yīng)用于星型網(wǎng)絡(luò)系統(tǒng)

    電子發(fā)燒友網(wǎng)站提供《如何 THVD8000 應(yīng)用于星型網(wǎng)絡(luò)系統(tǒng).pdf》資料免費下載
    發(fā)表于 09-12 10:36 ?0次下載
    如何<b class='flag-5'>將</b> THVD8000 <b class='flag-5'>應(yīng)用于</b>星型網(wǎng)絡(luò)系統(tǒng)

    SensiML開源AutoML解決方案-Piccolo AI發(fā)布

    SensiML強大的Analytics Studio軟件開發(fā)工具的開源版本-Piccolo AI發(fā)布了!Piccolo AI遵循AGPL許可,面向個人開發(fā)者、研究人員和AI愛好者,旨在AutoML
    的頭像 發(fā)表于 07-22 16:53 ?853次閱讀

    Transformer語言模型簡介與實現(xiàn)過程

    在自然語言處理(NLP)領(lǐng)域,Transformer模型以其卓越的性能和廣泛的應(yīng)用前景,成為了近年來最引人注目的技術(shù)之一。Transformer模型由谷歌在2017年提出,并首次應(yīng)用于
    的頭像 發(fā)表于 07-10 11:48 ?2357次閱讀

    Transformer架構(gòu)在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域取得了顯著的進步。其中,Transformer架構(gòu)的提出,為NLP領(lǐng)域帶來了革命性的變革。本文深入探討Transformer
    的頭像 發(fā)表于 07-09 11:42 ?1081次閱讀

    迅為RK3562核心板四核A53+MaliG52架構(gòu),應(yīng)用于商業(yè)平板電腦,視頻會議,智能家居,教育電子,醫(yī)療設(shè)備,邊緣計算,工業(yè)應(yīng)用

    迅為RK3562核心板四核A53+MaliG52架構(gòu),應(yīng)用于商業(yè)平板電腦,視頻會議,智能家居,教育電子,醫(yī)療設(shè)備,邊緣計算,工業(yè)應(yīng)用
    發(fā)表于 07-09 10:57

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎(chǔ)。本文深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結(jié)構(gòu)、訓
    的頭像 發(fā)表于 07-02 11:41 ?2025次閱讀

    Transformer 能代替圖神經(jīng)網(wǎng)絡(luò)嗎?

    Transformer模型發(fā)布時,它徹底革新了機器翻譯領(lǐng)域。雖然最初是為特定任務(wù)設(shè)計的,但這種革命性的架構(gòu)顯示出它可以輕松適應(yīng)不同的任務(wù)。隨后成為了Transformer一個標準,甚
    的頭像 發(fā)表于 07-02 08:27 ?428次閱讀
    <b class='flag-5'>Transformer</b> 能代替圖神經(jīng)網(wǎng)絡(luò)嗎?

    基于xLSTM和Transformer的模型評估:xLSTM在“語言能力”的表現(xiàn)

    近期,Hochreiter在arXiv平臺發(fā)表論文,推出了一款新型的XLSTM(擴展LSTM)架構(gòu),有效克服了傳統(tǒng)LSTM互聯(lián)網(wǎng)結(jié)構(gòu)“僅能按時間順序處理信息”的局限性,有望挑戰(zhàn)當前熱門的Transformer架構(gòu)
    的頭像 發(fā)表于 05-13 10:31 ?998次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    就無法修改,因此難以靈活應(yīng)用于下游文本的挖掘中。 詞嵌入表示:每個詞映射為一個低維稠密的實值向量。不同的是,基于預(yù)訓練的詞嵌入表示先在語料庫中利用某種語言模型進行預(yù)訓練,然后將其應(yīng)用到下游任務(wù)中,詞
    發(fā)表于 05-05 12:17
    主站蜘蛛池模板: 99re 这里只有精品 | 免费高清在线影片一区 | 亚洲精品视频免费观看 | 99热成人精品国产免男男 | 99re2.久久热最新地址 | 亚洲中文字幕AV在天堂 | 国产AV精品久久久毛片 | a视频在线看 | 亚洲 日韩 国产 中文视频 | 国精产品一区二区三区有限公司 | 免费在线看视频 | 午夜免费福利片 | 丫鬟粗大狠狠贯穿h | 精品一成人岛国片在线观看 | 人妻超级精品碰碰在线97视频 | av影音先锋影院男人站 | 中文字幕偷乱免费视频在线 | 日韩伦理电影秋霞影院 | 中文字幕免费在线视频 | 福利免费观看体检区 | 日韩av片无码一区二区不卡电影 | 女人吃男人的鸡鸡 | 约艺术院校96年清纯白嫩 | 2021国产精品视频一区 | 国产欧美无码亚洲毛片 | 国产美熟女乱又伦AV | 四房播播开心色播 | 国产在线精彩亚洲久久 | 欧美巨大巨粗黑人性AAAAAA | 午夜免费福利 | 久久精品国产99欧美精品亚洲 | 女人精69xxxxx舒心 | 久久久久久久久久毛片精品美女 | 老牛天天晚上夜噜噜噜 | 午夜福利免费视频921000电影 | 色综合色综合久久综合频道 | 久久91精品久久久久久水蜜桃 | 丝瓜影院观看免费高清国际观察 | 久久精品亚洲精品国产欧美 | 在线观看免费亚洲 | 亚洲 欧美 日韩 精品 自拍 |