色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何讓Transformer在多種模態下處理不同領域的廣泛應用?

深度學習自然語言處理 ? 來源:AI公園 ? 作者:Synced ? 2021-03-08 10:30 ? 次閱讀

一個模型完成了CV,NLP方向的7個任務,每個任務上表現都非常好。

Transformer架構在自然語言處理和其他領域的機器學習(ML)任務中表現出了巨大的成功,但大多僅限于單個領域或特定的多模態領域的任務。例如,ViT專門用于視覺相關的任務,BERT專注于語言任務,而VILBERT-MT只用于相關的視覺和語言任務。

一個自然產生的問題是:我們能否建立一個單一的Transformer,能夠在多種模態下處理不同領域的廣泛應用?最近,Facebook的一個人工智能研究團隊進行了一個新的統一Transformer(UniT) encoder-decoder模型的挑戰,該模型在不同的模態下聯合訓練多個任務,并通過一組統一的模型參數在這些不同的任務上都實現了強大的性能。

Transformer首先應用于sequence-to-sequence模型的語言領域。它們已經擴展到視覺領域,甚至被應用于視覺和語言的聯合推理任務。盡管可以針對各種下游任務中的應用對預先訓練好的Transformer進行微調,并獲得良好的結果,但這種模型微調方法會導致為每個下游任務創建不同的參數集。

Facebook的人工智能研究人員提出,一個Transformer可能就是我們真正需要的。他們的UniT是建立在傳統的Transformer編碼器-解碼器架構上,包括每個輸入模態類型的獨立編碼器,后面跟一個具有簡單的每個任務特定的頭的解碼器。輸入有兩種形式:圖像和文本。首先,卷積神經網絡骨干網提取視覺特征,然后BERT將語言輸入編碼成隱藏狀態序列。然后,Transformer解碼器應用于編碼的單個模態或兩個編碼模態的連接序列(取決于任務是單模態還是多模態)。最后,Transformer解碼器的表示將被傳遞到特定任務的頭,該頭將輸出最終的預測。

UniT模型概要

評估UniT的性能,研究人員進行了實驗,需要共同學習來自不同領域的許多流行的任務:COCO目標檢測和 Visual Genome數據集,語言理解任務的GLUE基準(QNLI, QQP、MNLI-mismatched SST-2),以及視覺推理任務VQAv2 SNLI-VE數據集。

8d044a88-7f2a-11eb-8b86-12bb97331649.png

多任務訓練的UniT性能優于單獨訓練的目標檢測和VQA

8d3f74fa-7f2a-11eb-8b86-12bb97331649.png

基于UniT模型的目標檢測與VQA的分析

8d86f6fe-7f2a-11eb-8b86-12bb97331649.png

UniT模型在8個數據集的7個任務上的性能

具有共享解碼器的UniT模型的預測

結果表明,所提出的UniT 模型同時處理8個數據集上的7個任務,在統一的模型參數集下,每個任務都有較強的性能。強大的性能表明UniT有潛力成為一種領域未知的transformer 架構,向更通用的智能的目標邁進了一步。

原文標題:【多模態】來自Facebook AI的多任務多模態的統一Transformer:向更通用的智能邁出了一步

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31155

    瀏覽量

    269487
  • 人工智能
    +關注

    關注

    1792

    文章

    47442

    瀏覽量

    239004
  • 機器學習
    +關注

    關注

    66

    文章

    8425

    瀏覽量

    132774

原文標題:【多模態】來自Facebook AI的多任務多模態的統一Transformer:向更通用的智能邁出了一步

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    智慧交通技術的廣泛應用領域

    智慧交通 是一種結合了信息技術、通信技術和交通管理的創新模式,旨在提高城市交通系統的效率、安全性和可持續性。智慧交通技術各個領域廣泛的運用范圍,涵蓋了城市交通管理、公共交通系統、道路安全、車輛
    的頭像 發表于 12-11 11:51 ?510次閱讀

    利用OpenVINO部署Qwen2多模態模型

    模態大模型的核心思想是將不同媒體數據(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態之間的關聯,實現更加智能化的信息處理。簡單來說,多模態大模型可以可以理解
    的頭像 發表于 10-18 09:39 ?483次閱讀

    FPGA圖像處理領域的優勢有哪些?

    高的應用領域,FPGA是圖像處理的理想選擇。 綜上所述,FPGA圖像處理領域具有并行處理能力強
    發表于 10-09 14:36

    IP宿主信息不同領域廣泛應用

    廣泛應用。 什么是IP宿主信息? IP宿主信息是指與特定IP地址相關聯的詳細數據集合。通過網絡技術手段,對特定IP地址進行深度解析后獲得的一系列相關信息。提供郵政編碼、經緯度等信息的基礎上為用戶提供更加詳細的信息,如行業類型、商圈地址、
    的頭像 發表于 09-06 09:49 ?405次閱讀

    FPGA自動駕駛領域有哪些應用?

    控制。視覺算法方面,FPGA利用自身并行處理和高速存儲器的特點,極大地加快了算法的執行速度,提高了運算效率。 五、未來發展趨勢隨著自動駕駛技術的不斷發展,FPGA自動駕駛領域的應用
    發表于 07-29 17:09

    Transformer能代替圖神經網絡嗎

    Transformer作為一種處理序列數據方面表現出色的深度學習模型,自其提出以來,已經自然語言處理(NLP)、時間序列分析等
    的頭像 發表于 07-12 14:07 ?480次閱讀

    Transformer語言模型簡介與實現過程

    自然語言處理(NLP)領域Transformer模型以其卓越的性能和廣泛的應用前景,成為了近年來最引人注目的技術之一。
    的頭像 發表于 07-10 11:48 ?1880次閱讀

    Transformer架構自然語言處理中的應用

    隨著人工智能技術的飛速發展,自然語言處理(NLP)領域取得了顯著的進步。其中,Transformer架構的提出,為NLP領域帶來了革命性的變革。本文將深入探討
    的頭像 發表于 07-09 11:42 ?854次閱讀

    Transformer模型語音識別和語音生成中的應用優勢

    自然語言處理、語音識別、語音生成等多個領域展現出強大的潛力和廣泛的應用前景。本文將從Transformer模型的基本原理出發,深入探討其
    的頭像 發表于 07-03 18:24 ?1189次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文將深入解讀如何使用PyTorch框架搭建
    的頭像 發表于 07-02 11:41 ?1698次閱讀

    基于Transformer模型的壓縮方法

    基于Transformer架構的大型模型人工智能領域中發揮著日益重要的作用,特別是自然語言處理(NLP)和計算機視覺(CV)
    的頭像 發表于 02-22 16:27 ?674次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法

    三坐標測量儀的高精度測量功能與廣泛應用領域詳解

    三坐標測量儀作為一種高精度的測量設備,被廣泛應用于各種復雜零件的檢測和測量。它綜合了機械、光學、電子、計算機等多種技術,能夠準確測量物體的尺寸、形狀、位置和曲面特征等多個方面。具有廣泛的應用
    的頭像 發表于 02-22 09:12 ?2152次閱讀
    三坐標測量儀的高精度測量功能與<b class='flag-5'>廣泛應用領域</b>詳解

    一文詳解Transformer神經網絡模型

    Transformer模型強化學習領域的應用主要是應用于策略學習和值函數近似。強化學習是指機器與環境互動的過程中,通過試錯來學習最優的
    發表于 02-20 09:55 ?1.5w次閱讀
    一文詳解<b class='flag-5'>Transformer</b>神經網絡模型

    Transformer壓縮部署的前沿技術:RPTQ與PB-LLM

    隨著人工智能技術的迅速發展,Transformer自然語言處理、機器翻譯、問答系統等領域取得了顯著的性能提升。
    的頭像 發表于 01-24 14:05 ?1227次閱讀
    <b class='flag-5'>Transformer</b>壓縮部署的前沿技術:RPTQ與PB-LLM

    基于Transformer的多模態BEV融合方案

    由于大量的相機和激光雷達特征以及注意力的二次性質,將 Transformer 架構簡單地應用于相機-激光雷達融合問題是很困難的。
    發表于 01-23 11:39 ?880次閱讀
    基于<b class='flag-5'>Transformer</b>的多<b class='flag-5'>模態</b>BEV融合方案
    主站蜘蛛池模板: 2019午夜75福利不卡片在线| 国产亚洲免费观看| 久久re这里精品23| 中国老妇xxxhd| 年轻老师毛茸茸自由性| jizz日本美女| 深夜草逼逼| 九九热精品免费观看| 97caopeng| 双性大乳浪受噗呲噗呲h总| 禁室培欲在线视频免费观看| 91热久久免费频精品99欧美| 三级电影免费看| 久久国产36精品色熟妇| caoporon超碰在线视频| 香蕉久久日日躁夜夜嗓| 乱码国产丰满人妻WWW| 俄罗斯6一9泑女网站| 亚洲专区中文字幕视频专区| 秋霞电影午夜伦午夜| 精彩国产萝视频在线| xxx日本黄色| 亚洲最大成人| 日韩男明星| 久久综合伊人| 国产精品视频第一区二区三区| 中文日韩亚洲欧美字幕| 天天看学生视频| 免费看黄色小说| 好色的妹妹| 丰满大爆乳波霸奶| 538prom国产在线视频一区| 午夜精品久久久久久久爽牛战| 免费国产成人高清在线观看视频| 国产精品久久精品| 99视频精品在线| 亚洲视频免费| 蛇缚dvd| 嫩草影院地址一地址二| 解开白丝老师的短裙猛烈进入 | 4455永久在线毛片观看|