色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

谷歌將AutoML應用于Transformer架構,翻譯結果飆升!

DPVg_AI_era ? 來源:YXQ ? 2019-06-16 11:29 ? 次閱讀

為了探索AutoML在序列域中的應用是否能夠取得的成功,谷歌的研究團隊在進行基于進化的神經架構搜索(NAS)之后,使用了翻譯作為一般的序列任務的代理,并找到了Evolved Transformer這一新的Transformer架構。Evolved Transformer不僅實現了最先進的翻譯結果,與原始的Transformer相比,它還展示了語言建模的改進性能。

自幾年前推出以來,Google的Transformer架構已經應用于從制作奇幻小說到編寫音樂和聲的各種挑戰。重要的是,Transformer的高性能已經證明,當應用于序列任務(例如語言建模和翻譯)時,前饋神經網絡可以與遞歸神經網絡一樣有效。雖然用于序列問題的Transformer和其他前饋模型越來越受歡迎,但它們的架構幾乎完全是手動設計的,與計算機視覺領域形成鮮明對比。AutoML方法已經找到了最先進的模型,其性能優于手工設計的模型。當然,我們想知道AutoML在序列域中的應用是否同樣成功。

在進行基于進化的神經架構搜索(NAS)之后,我們使用翻譯作為一般的序列任務的代理,我們找到了Evolved Transformer,這是一種新的Transformer架構,它展示了對各種自然語言處理(NLP)任務的有希望的改進。Evolved Transformer不僅實現了最先進的翻譯結果,而且與原始的Transformer相比,它還展示了語言建模的改進性能。我們是將此新模型作為Tensor2Tensor的部分發布,它可用于任何序列問題。

開發技術

要開始進化NAS,我們有必要開發新技術,因為用于評估每個架構的“適應性”的任務——WMT'14英語-德語翻譯——計算量很大。這使得搜索比在視覺領域中執行的類似搜索更加昂貴,這可以利用較小的數據集,如CIFAR-10。

這些技術中的第一種是溫啟動——在初始進化種群中播種Transformer架構而不是隨機模型。這有助于在我們熟悉的搜索空間區域中進行搜索,從而使其能夠更快地找到更好的模型。

第二種技術是我們開發的一種稱為漸進動態障礙(PDH)(Progressive Dynamic Hurdles)的新方法,這種算法增強了進化搜索,以便為最強的候選者分配更多的資源,這與先前的工作相反,其中NAS的每個候選模型被分配相同的評估時的資源量。如果模型明顯不好,PDH允許我們提前終止對模型的評估,從而使有前途的架構獲得更多資源。

Evolved Transformer簡介

使用這些方法,我們在翻譯任務上進行了大規模的NAS,并發現了Evolved Transformer(ET)。與大多數序列到序列(seq2seq)神經網絡體系結構一樣,它有一個編碼器,將輸入序列編碼為嵌入,解碼器使用這些嵌入構造輸出序列;在翻譯的情況下,輸入序列是要翻譯的句子,輸出序列是翻譯。

演化變壓器最有趣的特征是其編碼器和解碼器模塊底部的卷積層,在兩個地方都以類似的分支模式添加(即輸入在加到一起之前通過兩個單獨的卷積層)。

Evolved Transformer與原始Transformer編碼器架構的比較。注意模塊底部的分支卷積結構,它獨立地在編碼器和解碼器中形成。

這一點特別有趣,因為在NAS期間編碼器和解碼器架構不共享,因此獨立發現該架構對編碼器和解碼器都很有用,這說明了該設計的優勢。雖然最初的Transformer完全依賴于自我關注,但Evolved Transformer是一種混合體,利用了自我關注和廣泛卷積的優勢。

對Evolved Transformer的評估

為了測試這種新架構的有效性,我們首先將它與我們在搜索期間使用的英語-德語翻譯任務的原始Transformer進行了比較。我們發現在所有參數尺寸下,Evolved Transformer具有更好的BLEU和 perplexity performance,擁有最大增益與移動設備兼容(約700萬個參數),證明了參數的有效使用。在更大的尺寸上,Evolved Transformer在WMT'14 En-De上達到了最先進的性能,BLEU得分為29.8,SacreBLEU得分為29.2。

不同尺寸的WMT'14 En-DeEvolved Transformer與原Transformer的比較。性能的最大提高發生在較小的尺寸上,而ET在較大的尺寸上也顯示出強度,優于最大的Transformer,參數減少37.6%(要比較的模型用綠色圈出)。

為了測試普遍性,我們還在其他NLP任務上將ET與Transformer進行了比較。首先,我們研究了使用不同語言對的翻譯,發現ET表現提升,其邊緣與英語-德語相似;再次,由于其有效使用參數,對于中型模型觀察到了最大的提升。我們還比較了使用LM1B進行語言建模的兩種模型的解碼器,并且看到性能提升近2個perplexity。

未來工作

這些結果是探索體系結構搜索在前饋序列模型中應用的第一步。Evolved Transformer作為Tensor2Tensor的一部分已開源,在那里它可以用于任何序列問題。為了提高可重復性,我們還開源了我們用于搜索的搜索空間,以及實施漸進動態障礙的Colab。我們期待著看到研究團體用新模型做了什么,并希望其他人能夠利用這些新的搜索技術!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6173

    瀏覽量

    105638
  • 開源
    +關注

    關注

    3

    文章

    3371

    瀏覽量

    42580

原文標題:谷歌將AutoML應用于Transformer架構,翻譯結果飆升,已開源!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會統治世界。 我們花了兩年時間打造Sohu,這是世界上第一個用于transformer(ChatGPT中的“T”)的專用芯片。
    的頭像 發表于 01-06 09:13 ?126次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    SensiML開源了Analytics Studio AutoML引擎

    我們很高興地宣布,我們的AutoML服務器應用程序Analytics Studio很快在開源許可下提供。我們還將推出一個新的開源項目網站,以聯合一個致力于為 tinyML 模型開發創建全面的、與硬件無關的解決方案的開發人員社區。此次發布計劃于初夏進行,我們正準備在您的支
    的頭像 發表于 11-06 09:36 ?370次閱讀
    SensiML開源了Analytics Studio <b class='flag-5'>AutoML</b>引擎

    英偉達推出歸一化Transformer,革命性提升LLM訓練速度

    了新的突破。 相較于傳統的Transformer架構,nGPT在保持原有精度的同時,直接大型語言模型(LLM)的訓練速度提升了高達20倍。這一顯著的性能提升,無疑極大地推動AI技術
    的頭像 發表于 10-23 11:30 ?401次閱讀

    TI TSC應用于各種和多種功能

    電子發燒友網站提供《TI TSC應用于各種和多種功能.pdf》資料免費下載
    發表于 10-22 10:15 ?0次下載
    <b class='flag-5'>將</b>TI TSC<b class='flag-5'>應用于</b>各種和多種功能

    如何 THVD8000 應用于星型網絡系統

    電子發燒友網站提供《如何 THVD8000 應用于星型網絡系統.pdf》資料免費下載
    發表于 09-12 10:36 ?0次下載
    如何<b class='flag-5'>將</b> THVD8000 <b class='flag-5'>應用于</b>星型網絡系統

    SensiML開源AutoML解決方案-Piccolo AI發布

    SensiML強大的Analytics Studio軟件開發工具的開源版本-Piccolo AI發布了!Piccolo AI遵循AGPL許可,面向個人開發者、研究人員和AI愛好者,旨在AutoML
    的頭像 發表于 07-22 16:53 ?785次閱讀

    Transformer語言模型簡介與實現過程

    在自然語言處理(NLP)領域,Transformer模型以其卓越的性能和廣泛的應用前景,成為了近年來最引人注目的技術之一。Transformer模型由谷歌在2017年提出,并首次應用于
    的頭像 發表于 07-10 11:48 ?1879次閱讀

    Transformer架構在自然語言處理中的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域取得了顯著的進步。其中,Transformer架構的提出,為NLP領域帶來了革命性的變革。本文深入探討Transformer
    的頭像 發表于 07-09 11:42 ?854次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結構、訓
    的頭像 發表于 07-02 11:41 ?1698次閱讀

    Transformer 能代替圖神經網絡嗎?

    Transformer模型發布時,它徹底革新了機器翻譯領域。雖然最初是為特定任務設計的,但這種革命性的架構顯示出它可以輕松適應不同的任務。隨后成為了Transformer一個標準,甚
    的頭像 發表于 07-02 08:27 ?370次閱讀
    <b class='flag-5'>Transformer</b> 能代替圖神經網絡嗎?

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    就無法修改,因此難以靈活應用于下游文本的挖掘中。 詞嵌入表示:每個詞映射為一個低維稠密的實值向量。不同的是,基于預訓練的詞嵌入表示先在語料庫中利用某種語言模型進行預訓練,然后將其應用到下游任務中,詞
    發表于 05-05 12:17

    基于Transformer模型的壓縮方法

    基于Transformer架構的大型模型在人工智能領域中發揮著日益重要的作用,特別是在自然語言處理(NLP)和計算機視覺(CV)領域。
    的頭像 發表于 02-22 16:27 ?674次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法

    一文詳解Transformer神經網絡模型

    Transformer模型在強化學習領域的應用主要是應用于策略學習和值函數近似。強化學習是指讓機器在與環境互動的過程中,通過試錯來學習最優的行為策略。
    發表于 02-20 09:55 ?1.5w次閱讀
    一文詳解<b class='flag-5'>Transformer</b>神經網絡模型

    Transformer壓縮部署的前沿技術:RPTQ與PB-LLM

    隨著人工智能技術的迅速發展,Transformer在自然語言處理、機器翻譯、問答系統等領域取得了顯著的性能提升。
    的頭像 發表于 01-24 14:05 ?1227次閱讀
    <b class='flag-5'>Transformer</b>壓縮部署的前沿技術:RPTQ與PB-LLM

    基于Transformer的多模態BEV融合方案

    由于大量的相機和激光雷達特征以及注意力的二次性質, Transformer 架構簡單地應用于相機-激光雷達融合問題是很困難的。
    發表于 01-23 11:39 ?880次閱讀
    基于<b class='flag-5'>Transformer</b>的多模態BEV融合方案
    主站蜘蛛池模板: 亚洲国产成人久久精品影视| 午夜国产免费视频亚洲| 国产午夜小视频| 哺乳溢出羽月希中文字幕| 97超碰97资源在线观看视频| 伊人久久大香线蕉综合网站| 亚洲国产欧美在线人成aaaa20| 翁熄性放纵交换300章| 色婷婷亚洲精品天天综合影院| 欧美人妖12p| 欧美日韩午夜群交多人轮换| 免费国产成人| 免费看到湿的小黄文软件APP| 美国一级黄色| 男人脱女人衣服吃奶视频| 免费韩国伦理2017最新| 美女被撕开胸罩狂揉大乳| 老人洗澡自拍xxx互摸| 老师小扫货水能么多叫出来| 麻豆精品传媒卡一卡二传媒短视频| 久久久久久久尹人综合网亚洲| 久久99精品涩AV毛片观看| 久久久久青草大香线综合精品| 久久国产精品二区99| 快播理伦片| 免费观看国产视频| 欧美性XXXXX极品娇小| 日本少妇内射视频播放舔| 色翁荡息又大又硬又粗又爽电影| 色综合a在线| 亚州AV人片一区二区三区99久| 亚洲AV成人无码999WWW| 亚洲伊人久久大香线蕉综合图片| 怡春院院日本一区二区久久 | 美女张开让男生桶| 欧美亚洲国产激情一区二区| 日本电影护士| 四虎永久在线精品免费A| 亚洲成人中文| 纵欲(高H)| 啊灬啊别停灬用力啊老师|