色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文本噪聲標(biāo)簽在預(yù)訓(xùn)練語言模型(PLMs)上的特性

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-10-12 09:50 ? 次閱讀

數(shù)據(jù)的標(biāo)簽錯(cuò)誤隨處可見,如何在噪聲數(shù)據(jù)集上學(xué)習(xí)到一個(gè)好的分類器,是很多研究者探索的話題。在 Learning With Noisy Labels 這個(gè)大背景下,很多方法在圖像數(shù)據(jù)集上表現(xiàn)出了非常好的效果。

而文本的標(biāo)簽錯(cuò)誤有時(shí)很難鑒別。比如對于一段文本,可能專家對于其主旨類別的看法都不盡相同。這些策略是否在語言模型,在文本數(shù)據(jù)集上表現(xiàn)好呢?本文探索了文本噪聲標(biāo)簽在預(yù)訓(xùn)練語言模型(PLMs)上的特性,提出了一種新的學(xué)習(xí)策略 SelfMix,并機(jī)器視覺上常用的方法應(yīng)用于預(yù)訓(xùn)練語言模型作為 baseline。

為什么選 PLMs

我們對于常見語言分類模型在帶噪文本數(shù)據(jù)集上做了一些前期實(shí)驗(yàn),結(jié)果如下:

26bb6bd2-497f-11ed-a3b6-dac502259ad0.png

首先,毫無疑問,預(yù)訓(xùn)練模型(BERT,RoBERTa)的表現(xiàn)更好。其次,文章提到,預(yù)訓(xùn)練模型已經(jīng)在大規(guī)模的預(yù)訓(xùn)練語料上獲得了一定的類別先驗(yàn)知識。故而在有限輪次訓(xùn)練之后,依然具有較高的準(zhǔn)確率,如何高效利用預(yù)訓(xùn)練知識處理標(biāo)簽噪聲,也是一個(gè)值得探索的話題。

預(yù)訓(xùn)練模型雖然有一定的抗噪學(xué)習(xí)能力,但在下游任務(wù)的帶噪數(shù)據(jù)上訓(xùn)練時(shí)也會(huì)受到噪聲標(biāo)簽的影響,這種現(xiàn)象在少樣本,高噪聲比例的設(shè)置下更加明顯。

26d1e2ae-497f-11ed-a3b6-dac502259ad0.png

方法

由此,我們提出了 SelfMix,一種對抗文本噪聲標(biāo)簽的學(xué)習(xí)策略。

基礎(chǔ)模型上,我們采用了 BERT encoder + MLP 這一常用的分類范式。

270fa0da-497f-11ed-a3b6-dac502259ad0.png

針對帶噪學(xué)習(xí)策略,主要可以分為兩個(gè)部分

Sample Selection

Semi-supervised Learning

Sample Selection

Sample Selection 部分對于原始數(shù)據(jù)集 ,經(jīng)過模型的一次傳播,根據(jù)每個(gè)樣本對應(yīng)的 loss,通過 2 核的 GMM 擬合將數(shù)據(jù)集分為干凈和帶噪聲的兩個(gè)部分,分別為 和 。因?yàn)槠渲?被認(rèn)為是噪聲數(shù)據(jù)集,所以其標(biāo)簽全部被去除,認(rèn)為是無標(biāo)簽數(shù)據(jù)集。

這里的 GMM,簡單的來講其實(shí)可以看作是根據(jù)整體的 loss 動(dòng)態(tài)擬合出一個(gè)閾值(而不是規(guī)定一個(gè)閾值,因?yàn)樵谟?xùn)練過程中這個(gè)閾值會(huì)變化),將 loss 位于閾值兩邊的分別分為 clean samples 和 noise samples。

Semi-supervised Learning

關(guān)于 Semi-supervised Learning 部分,SelfMix 首先利用模型給給無標(biāo)簽的數(shù)據(jù)集打偽標(biāo)簽(這里采用了 soft label 的形式),得到 。因?yàn)榇騻螛?biāo)簽需要模型在這個(gè)下游任務(wù)上有一定的判別能力,所以模型需要預(yù)先 warmup 的少量的步數(shù)。

Textual Mixup」:文中采用了句子 [CLS] embedding 做 mixup。Mixup 也是半監(jiān)督和魯棒學(xué)習(xí)中經(jīng)常采用的一個(gè)策略。

27757996-497f-11ed-a3b6-dac502259ad0.png

「Pseudo-Loss」:文中的解釋比較拗口,其實(shí)本質(zhì)也是一種在半監(jiān)督訓(xùn)練過程中常用的對模型輸出墑的約束。

27a9d40c-497f-11ed-a3b6-dac502259ad0.png

「Self-consistency Regularization」:其他的很多帶噪學(xué)習(xí)方法大都是多模型集成決策的想法,但我們認(rèn)為可以利用 dropout 機(jī)制來使得單個(gè)模型做自集成。噪聲數(shù)據(jù)因?yàn)榕c標(biāo)簽的真實(shí)分布相悖,往往會(huì)導(dǎo)致子模型之間產(chǎn)生很大的分歧,我們不希望在高噪聲環(huán)境下子模型的分歧越來越大,故而采用了 R-Drop 來約束子模型。具體的做法是,計(jì)算兩次傳播概率分布之間的 KL 散度,作為 loss 的一部分,并且消融實(shí)驗(yàn)證明這個(gè)方法是十分有效的。

27c65db6-497f-11ed-a3b6-dac502259ad0.png

實(shí)驗(yàn)

我們在 IDN (Instance-Dependent Noise) 和 Asym (Asymmetric Noise) 做了實(shí)驗(yàn),并且對數(shù)據(jù)集做了切分來擬合數(shù)據(jù)充分和數(shù)據(jù)補(bǔ)充的情況,并設(shè)置了不同比例的標(biāo)簽噪聲來擬合微量噪聲至極端噪聲下的情況,上圖!

ASYM 噪聲實(shí)驗(yàn)結(jié)果

ASYM 噪聲按照一個(gè)特定的噪聲轉(zhuǎn)移矩陣將一個(gè)類別樣本的標(biāo)簽隨機(jī)轉(zhuǎn)換為一個(gè)特定類別的標(biāo)簽,來形成類別之間的混淆。

27e07714-497f-11ed-a3b6-dac502259ad0.png

IDN 噪聲實(shí)驗(yàn)結(jié)果

為了擬合基于樣本特征的錯(cuò)標(biāo)情況,我們訓(xùn)練了一個(gè)LSTM文本分類,對于一個(gè)樣本,將LSTM對于其預(yù)測結(jié)果中更容易錯(cuò)的類別作為其可能的噪聲標(biāo)簽。

27ff3d48-497f-11ed-a3b6-dac502259ad0.png

其他的一些討論

GMM 是否有效:從 a-c, d-f 可看出高斯混合模型能夠比較充分得擬合 clean 和 noise 樣本的 loss 分布。

SelfMix 對防止模型過擬合噪聲的效果是否明顯:d, h 兩張圖中,BERT-base 和 SelfMix 的 warmup 過程是完全一致的,warmup 過后 SelfMix 確實(shí)給模型的性能帶來了一定的提升,并且趨于穩(wěn)定,有效避免了過擬合噪聲的現(xiàn)象。285999be-497f-11ed-a3b6-dac502259ad0.png

考慮到模型最終的優(yōu)化目標(biāo)包括三個(gè)項(xiàng),我們做了消融實(shí)驗(yàn),分別去掉其中一個(gè)約束來看看模型表現(xiàn)如何,最終證明每個(gè)約束確實(shí)對于處理噪聲標(biāo)簽有幫助。

287fbe82-497f-11ed-a3b6-dac502259ad0.png

審核編輯:彭靜

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 噪聲
    +關(guān)注

    關(guān)注

    13

    文章

    1125

    瀏覽量

    47493
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    538

    瀏覽量

    10315
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24792

原文標(biāo)題:COLING'22 | SelfMix:針對帶噪數(shù)據(jù)集的半監(jiān)督學(xué)習(xí)方法

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一文詳解知識增強(qiáng)的語言預(yù)訓(xùn)練模型

    隨著預(yù)訓(xùn)練語言模型(PLMs)的不斷發(fā)展,各種NLP任務(wù)設(shè)置都取得了不俗的性能。盡管
    的頭像 發(fā)表于 04-02 17:21 ?9702次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    之后,成為文本建模領(lǐng)域的熱門架構(gòu)。不僅如此,它還對自然語言處理領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響。基于Transformer的預(yù)訓(xùn)練模型,如GPT系列和B
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】大語言模型預(yù)訓(xùn)練

    語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對預(yù)
    發(fā)表于 05-07 17:10

    預(yù)訓(xùn)練語言模型設(shè)計(jì)的理論化認(rèn)識

    在這篇文章中,我會(huì)介紹一篇最新的預(yù)訓(xùn)練語言模型的論文,出自MASS的同一作者。這篇文章的亮點(diǎn)是:將兩種經(jīng)典的預(yù)
    的頭像 發(fā)表于 11-02 15:09 ?2741次閱讀

    基于BERT的中文科技NLP預(yù)訓(xùn)練模型

    深度學(xué)習(xí)模型應(yīng)用于自然語言處理任務(wù)時(shí)依賴大型、高質(zhì)量的人工標(biāo)注數(shù)據(jù)集。為降低深度學(xué)習(xí)模型對大型數(shù)據(jù)集的依賴,提出一種基于BERT的中文科技自然語言處理
    發(fā)表于 05-07 10:08 ?14次下載

    如何向大規(guī)模預(yù)訓(xùn)練語言模型中融入知識?

    本文關(guān)注于向大規(guī)模預(yù)訓(xùn)練語言模型(如RoBERTa、BERT等)中融入知識。
    的頭像 發(fā)表于 06-23 15:07 ?4290次閱讀
    如何向大規(guī)模<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>中融入知識?

    Multilingual多語言預(yù)訓(xùn)練語言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM預(yù)訓(xùn)練語言模型,整體思路基于BERT,并提出了針
    的頭像 發(fā)表于 05-05 15:23 ?3031次閱讀

    一種基于亂序語言模型預(yù)訓(xùn)練模型-PERT

    由于亂序語言模型不使用[MASK]標(biāo)記,減輕了預(yù)訓(xùn)練任務(wù)與微調(diào)任務(wù)之間的gap,并由于預(yù)測空間大小為輸入序列長度,使得計(jì)算效率高于掩碼語言
    的頭像 發(fā)表于 05-10 15:01 ?1587次閱讀

    利用視覺語言模型對檢測器進(jìn)行預(yù)訓(xùn)練

    預(yù)訓(xùn)練通常被用于自然語言處理以及計(jì)算機(jī)視覺領(lǐng)域,以增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力,達(dá)到加速訓(xùn)練和提高模型泛化性能的目的。該方法亦可以用于場景
    的頭像 發(fā)表于 08-08 15:33 ?1444次閱讀

    CogBERT:腦認(rèn)知指導(dǎo)的預(yù)訓(xùn)練語言模型

    另一方面,從語言處理的角度來看,認(rèn)知神經(jīng)科學(xué)研究人類大腦中語言處理的生物和認(rèn)知過程。研究人員專門設(shè)計(jì)了預(yù)訓(xùn)練模型來捕捉大腦如何表示
    的頭像 發(fā)表于 11-03 15:07 ?1107次閱讀

    復(fù)旦&amp;微軟提出?OmniVL:首個(gè)統(tǒng)一圖像、視頻、文本的基礎(chǔ)預(yù)訓(xùn)練模型

    根據(jù)輸入數(shù)據(jù)和目標(biāo)下游任務(wù)的不同,現(xiàn)有的VLP方法可以大致分為兩類:圖像-文本預(yù)訓(xùn)練和視頻-文本預(yù)訓(xùn)練
    的頭像 發(fā)表于 12-14 15:26 ?958次閱讀

    預(yù)訓(xùn)練數(shù)據(jù)大小對于預(yù)訓(xùn)練模型的影響

    BERT類模型的工作模式簡單,但取得的效果也是極佳的,其在各項(xiàng)任務(wù)的良好表現(xiàn)主要得益于其在大量無監(jiān)督文本上學(xué)習(xí)到的文本表征能力。那么如何從語言
    的頭像 發(fā)表于 03-03 11:20 ?1494次閱讀

    基于預(yù)訓(xùn)練模型語言增強(qiáng)的零樣本視覺學(xué)習(xí)

    Stable Diffusion 多模態(tài)預(yù)訓(xùn)練模型 考慮多標(biāo)簽圖像分類任務(wù)——每幅圖像大于一個(gè)類別 如果已有圖文對齊模型——能否用
    的頭像 發(fā)表于 06-15 16:36 ?592次閱讀
    基于<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和<b class='flag-5'>語言</b>增強(qiáng)的零樣本視覺學(xué)習(xí)

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,尤其是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。
    的頭像 發(fā)表于 07-03 18:20 ?3059次閱讀

    語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行
    的頭像 發(fā)表于 07-11 10:11 ?511次閱讀
    主站蜘蛛池模板: 亚洲精品嫩草研究院久久 | 久久免费电影 | 99久女女精品视频在线观看 | 91九色精品国产免费 | 久青草国产在视频在线观看 | a一级一片免费观看视频 | 国产精品18久久久久久欧美网址 | 久久久久久久电影 | 国产精品一区二区资源 | 国产麻豆福利AV在线观看 | 肉动漫无修在线播放 | 秋霞网站一级一片 | 成人女人A级毛片免费软件 成人免费在线视频 | 东北女人奶大毛多水多 | 国产久久re6免费热在线 | 混乱家庭电影完整版在线看 | 内射一区二区精品视频在线观看 | 大胸美女脱内衣黄网站 | 久久久影院亚洲精品 | 99久久麻豆AV色婷婷综合 | 亚洲精品6久久久久中文字幕 | 免费夜色污私人影院网站 | 最近高清中文字幕无吗免费看 | 色偷偷超碰97人人澡人人 | 99热这里只就有精品22 | 88.7在线收听 | 激情内射亚洲一区二区三区爱妻 | 5G年龄确认我已满18免费 | 国产精品99精品无码视亚 | 爽死你个放荡粗暴小淫货漫画 | 亚洲性无码AV久久成人 | 涩涩在线观看免费视频 | 扒开女生尿口 | 18美女腿打开无遮软件 | 破苞流血哭泣 magnet | 亚欧日韩毛片在线看免费网站 | 国产又色又爽又刺激在线播放 | 双性诱受灌满哭求饶BL | 日日撸影院在线 | 久久精品无码成人国产毛 | 彭丹吃奶门 |