色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自監督學習與Transformer相關論文

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2020-11-02 15:50 ? 次閱讀

導讀

國際表示學習大會(TheInternationalConference onLearningRepresentations)是致力于人工智能領域發展的國際知名學術會議之一。ICLR 2021 將在明年5月4日舉行,目前,本次大會投稿已經結束,最后共有3013篇論文提交。ICLR 采用公開評審機制,任何人都可以提前看到這些論文。

為了分析最新研究動向,我們精選了涵蓋自監督學習、Transformer、圖神經網絡、自然語言處理、模型壓縮等熱點領域,將分多期為大家帶來系列論文解讀。

本期的關注焦點是自監督學習與Transformer。

自監督學習

Self-Supervised Variational Auto-Encoders

變分自編碼器(VAE)往往通過假設先驗分布為高斯分布來簡化計算過程,實際上真實數據的分布往往較為復雜,該假設會導致模型的過正則化并影響模型對真實分布的擬合能力;本文通過利用多個簡單分布對復雜真實分布進行建模,并采用自監督方法對這些分布之間進行約束,進而提升VAE模型最終的效果。

論文鏈接:https://openreview.net/forum?id=zOGdf9K8aC

Self-Supervised Learning from a Multi-View Perspective

即使自監督學習已經取得了很好的效果,現有的方法依舊并不清楚自監督學習帶來增益的主要原因;本文基于信息空間的考慮,認為自監督學習通過減少不相關信息來幫助收斂;此外本文還提出將自監督任務的兩個經典方法——對比學習和預測學習任務進行合并,結合兩者優點以增強自監督學習的效果。

論文鏈接:https://openreview.net/forum?id=-bdp_8Itjwp

Contrast to Divide: Self-Supervised Pre-Training for Learning with Noisy Labels

現有的噪聲數據學習策略往往基于loss的噪聲識別與再過濾的框架,其需要模型在warm-up階段既能學習到足夠好的特征信息,同時不至于過分擬合噪聲數據的分布;改目的與對比學習任務非常契合,本文提出在warm-up階段采用對比學習幫助進行特征學習,并基于對比學習策略幫助區分噪聲數據。

論文鏈接:https://openreview.net/forum?id=uB5x7Y2qsFR

Improving Self-Supervised Pre-Training via a Fully-Explored Masked Language Model

現有的BERT等模型往往采用masked language model進行自監督學習,但是其往往采用隨機的方法確定mask的word或者span;本文提出不合適的mask會導致梯度方差變大,并影響模型的效果,并分析原因在于同時mask的word之間具有一定的相似度;故本文提出一種特殊的mask機制,其考慮增大被mask的word之間的差異,進而削弱梯度方差大帶來的影響。

論文鏈接:https://openreview.net/forum?id=cYr2OPNyTz7

Bi-Tuning of Pre-Trained Representations

隨著預訓練模型的快速發展,現有方法主要關注于如何進行pre-train,但是很少關注如何進行fine-tune;本文認為在fine-tune時模型很容易忘記預訓練的信息并過擬合到當前任務,因此提出了一種特殊的Bi-tune策略,即利用對比學習作為正則項約束模型的收斂情況,進而幫助提升模型的效果。

論文鏈接:https://openreview.net/forum?id=3rRgu7OGgBI

Erasure for Advancing: Dynamic Self-Supervised Learning for Commonsense Reasoning

為了解決預訓練模型很難學習到更精準的 question-clue pairs 問題,本文提出DynamIcSelf-sUperviSedErasure (DISUSE)。其中包含 erasure sampler 和 supervisor,分別用于擦出上下文和問題中的多余線索,以及使用 self-supervised manner 進行監督。

論文鏈接:https://openreview.net/forum?id=WfY0jNndSn3

Transformer

Addressing Some Limitations of Transformers with Feedback Memory

Transformer結構因其并行計算的特性有很高的計算效率,但是這種特性限制了Transformer發掘序列信息的能力,這體現在底層表示無法獲得高層表示信息。作者提出一種Feedback Memory結構,將所有歷史的底層和高層表示信息傳遞給未來表示。

論文鏈接:https://openreview.net/forum?id=OCm0rwa1lx1

Not All Memories are Created Equal: Learning to Expire

Attention機制往往需要長期的記憶,但是實際上并不是所有歷史信息都是重要的。因此,作者提出一種Expire-Span機制,動態地決定每一個時刻信息存活的時間長短,從而減少模型進行Attention操作耗費的空間開銷。

論文鏈接:https://openreview.net/forum?id=ZVBtN6B_6i7

Memformer: The Memory-Augmented Transformer

目前大部分Transformer變體模型在處理長序列時都會存在效率問題。作者提出一種利用Memory機制來編碼和保存歷史信息,使得時間復雜度下降到線性時間,空間復雜度變為常數。

論文鏈接:https://openreview.net/forum?id=_adSMszz_g9

Non-iterative Parallel Text Generation via Glancing Transformer

本文提出了一種基于 glancing language model 的 Glancing Transformer,通過 one-iteration 的生成方式提升 NAT 的性能。其中 Glancing language model,可以通過兩次 decoding 來降低學習難度以及加快生成速度。另外這種方法同樣可以應用于其他基于 NAT 的任務。

論文鏈接:https://openreview.net/forum?id=ZaYZfu8pT_N

責任編輯:xj

原文標題:【ICLR2021必讀】 【自監督學習】 & 【Transformer】相關論文

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1794

    文章

    47642

    瀏覽量

    239674
  • 深度學習
    +關注

    關注

    73

    文章

    5512

    瀏覽量

    121415
  • Transformer
    +關注

    關注

    0

    文章

    145

    瀏覽量

    6034

原文標題:【ICLR2021必讀】 【自監督學習】 & 【Transformer】相關論文

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    港大提出SparX:強化Vision Mamba和Transformer的稀疏跳躍連接機制

    本文分享香港大學計算和數據科學學院俞益洲教授及其研究團隊發表于 AAAI 2025 的論文——SparX,一種強化 Vision Mamba 和 Transformer 的稀疏跳躍連接機制,性能強大
    的頭像 發表于 01-03 09:28 ?128次閱讀
    港大提出SparX:強化Vision Mamba和<b class='flag-5'>Transformer</b>的稀疏跳躍連接機制

    Transformer模型的具體應用

    如果想在 AI 領域引領一輪新浪潮,就需要使用到 Transformer
    的頭像 發表于 11-20 09:28 ?591次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應用

    時空引導下的時間序列監督學習框架

    【導讀】最近,香港科技大學、上海AI Lab等多個組織聯合發布了一篇時間序列無監督預訓練的文章,相比原來的TS2Vec等時間序列表示學習工作,核心在于提出了將空間信息融入到預訓練階段,即在預訓練階段
    的頭像 發表于 11-15 11:41 ?310次閱讀
    時空引導下的時間序列<b class='flag-5'>自</b><b class='flag-5'>監督學習</b>框架

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數據作為訓練材料。這些數據集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 監督學習:模型采用
    發表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    講解,包括偏置、權重、激活函數;三要素包括網絡結構、損失函數和優化方法。章節最后總結了神經網絡參數學習的關鍵步驟。 1.4章節描述了自然語言處理的相關知識點,包括什么是自然語言處理、文本的向量化和
    發表于 07-25 14:33

    Transformer能代替圖神經網絡嗎

    Transformer作為一種在處理序列數據方面表現出色的深度學習模型,其提出以來,已經在自然語言處理(NLP)、時間序列分析等領域取得了顯著的成果。然而,關于Transformer
    的頭像 發表于 07-12 14:07 ?508次閱讀

    神經網絡如何用無監督算法訓練

    神經網絡作為深度學習的重要組成部分,其訓練方式多樣,其中無監督學習是一種重要的訓練策略。無監督學習旨在從未標記的數據中發現數據內在的結構、模式或規律,從而提取有用的特征表示。這種訓練方式對于大規模未
    的頭像 發表于 07-09 18:06 ?870次閱讀

    深度學習中的無監督學習方法綜述

    應用中往往難以實現。因此,無監督學習在深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的無監督學習方法,包括自編碼器、生成對抗網絡、聚類算法等,并分析它們的原理、應用場景以及優
    的頭像 發表于 07-09 10:50 ?886次閱讀

    Transformer模型在語音識別和語音生成中的應用優勢

    隨著人工智能技術的飛速發展,語音識別和語音生成作為人機交互的重要組成部分,正逐漸滲透到我們生活的各個方面。而Transformer模型,其誕生以來,憑借其獨特的注意力機制和并行計算能力,在
    的頭像 發表于 07-03 18:24 ?1267次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型其問世以來,在自然語言處理(NLP)領域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結構、訓
    的頭像 發表于 07-02 11:41 ?1775次閱讀

    基于xLSTM和Transformer的模型評估:xLSTM在“語言能力”的表現

    近期,Hochreiter在arXiv平臺發表論文,推出了一款新型的XLSTM(擴展LSTM)架構,有效克服了傳統LSTM互聯網結構“僅能按時間順序處理信息”的局限性,有望挑戰當前熱門的Transformer架構。
    的頭像 發表于 05-13 10:31 ?872次閱讀

    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    為了使用三維運動先驗正則化估計的三維軌跡,模型另外預測了每條軌跡的剛性嵌入,這使能夠軟地分組表現出相同剛性體運動的像素,并為每個剛性集群強制執行ARAP正則化。作者證明了剛性嵌入可以通過監督學習,并產生不同剛性部分的合理分割。
    的頭像 發表于 04-13 12:12 ?1310次閱讀
    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    機器學習基礎知識全攻略

    監督學習通常是利用帶有專家標注的標簽的訓練數據,學習一個從輸入變量X到輸入變量Y的函數映射。Y = f (X),訓練數據通常是(n×x,y)的形式,其中n代表訓練樣本的大小,x和y分別是變量X和Y的樣本值。
    發表于 02-25 13:53 ?277次閱讀
    機器<b class='flag-5'>學習</b>基礎知識全攻略

    OpenAI推出Sora:AI領域的革命性突破

    大模型的核心技術是自然語言處理(NLP)和深度學習。具體而言,它基于Transformer架構,使用了大規模無監督學習方法,例如回歸語言建模和掩碼語言建模,來訓練一個龐大的神經網絡模
    發表于 02-21 16:36 ?1041次閱讀
    OpenAI推出Sora:AI領域的革命性突破

    一文詳解Transformer神經網絡模型

    Transformer模型在強化學習領域的應用主要是應用于策略學習和值函數近似。強化學習是指讓機器在與環境互動的過程中,通過試錯來學習最優的
    發表于 02-20 09:55 ?1.5w次閱讀
    一文詳解<b class='flag-5'>Transformer</b>神經網絡模型
    主站蜘蛛池模板: CHRISTMAS农村夫妻HO | 成人片免费看 | 色欲蜜臀AV免费视频 | 亚洲AV成人无码网天堂 | 三级电影免费看 | 日本肉肉口番工全彩动漫 | 无限资源好看片2019免费观看 | 龙岩综合频道 | 国产成人精品免费视频大全办公室 | 免费三级播放器 | 美女与男人对肌免费网站 | 99re热精品视频国产免费 | 日韩黄色免费 | 午夜伦理:伦理片 | WWW污污污抽搐喷潮COM | JEALOUSVUE成熟老师APP | 嫩B人妻精品一区二区三区 内射一区二区精品视频在线观看 | bl被教练啪到哭H玉势 | 麻豆国产96在线日韩麻豆 | 在线播放真实国产乱子伦 | 成人无码精品一区二区在线观看 | 国产中文欧美日韩在线 | 国产成人精品免费视频软件 | 国内精品免费久久影院 | 国内精品久久久久影院男同志 | 午夜阳光影院在线观看视频 | 97影院午夜午夜伦不卡 | 黑丝美女被人操 | 美女脱三角裤 | 国产极品白嫩超清在线观看 | 中国老头oldday tv | 国产小视频在线高清播放 | 97国产成人精品视频 | 久久无码人妻AV精品一区 | 37大但人文艺术A级都市天气 | 亚洲欧美日韩精品久久奇米色影视 | 亚洲女人毛片 | 国内精品久久影视免费 | 中文亚洲大香伊蕉不卡一区 | 麻豆AV无码精品一区二区 | 久草在线草a免费线看 |