色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

當“大”模型遇上“小”數據

深度學習自然語言處理 ? 來源:羅福莉 ? 作者:羅福莉 ? 2021-11-09 15:49 ? 次閱讀

“ 或許自上次N篇ACL事件后,不少人會突然發現我銷聲匿跡了。的確,我20年論文斷供整整一年。這一年我經歷了論文從量變到質變的痛苦蛻變過程,而今天這一篇論文就是在這個過程后的第一個我略微滿意的工作Child-Tuning,推薦給大家?!?/p>

自BERT火了以后,基本上現在所有NLP領域都all in Pre-training & Fine-tuning了吧?但當“大”規模預訓練模型遇上“小”規模標注數據時,往往直接Fine-tuning會存在過擬合現象,進一步會影響Fine-tune完后模型的Generalization能力。如何更好地應對這一問題呢?

我們提出的Child-Tuning給出了一種新的解法--在Fine-tuning過程中僅更新預訓練模型中部分網絡參數(這部分網絡本文就叫做Child Network),這么簡單直接的做法卻效果奇贊,結果在GLUE上相較標準Fine-tune有0.5~8.6個點的效果提升,但卻只需要幾行代碼的修改,你不想試試嗎?目前,該論文《Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning》已被EMNLP‘21接收。

01—

當“大”模型遇上“小”數據

自BERT提出以來,預訓練模型的參數量從最開始的3億,逐漸攀升到了GPT-2的15億,再到火出NLP圈的1750億參數的GPT-3。一方面模型越來越大,但另一方面,下游任務的標注數據量有些情況下卻很少。如果直接將“大”模型在下游“小”數據上進行標準的Fine-tune,將模型遷移到目標任務中去,會導致什么情況呢?

由于這種“大”與“小”的不匹配,往往容易出現過擬合的現象,導致模型在下游任務中的表現差、不穩定、泛化性能差等現象,從而影響我們對于預訓練模型的使用[1]。因此,越來越多工作開始聚焦于如何解決這種不匹配現象,緩解大規模預訓練模型在下游任務中的過擬合。

本文介紹的Child-Tuning圍繞這個問題進行探究,從backward參數更新的角度思考問題,提出一種新的Fine-tuning策略,在Fine-tuning過程中僅更新對應的Child Network,在不同下游任務中相比Vanilla Fine-tuning有明顯提高,如基于BERT模型在四個不同數據集中平均帶來1.5個點的提升,在ELETRA上甚至提升8.6個點。

02—

Child-Tuning 簡單有效的微調算法

在Fine-tuning過程中,我們一方面想利用大規模預訓練模型提供的強大知識,另一方面又想解決“海量參數”與“少量標注樣本”的不匹配問題,那么能否采用這樣的方式來解決問題呢?在forward的時候保持與正常Fine-tune一樣,利用整個模型的參數來編碼輸入樣本;在backward更新參數的時候,無需調整海量龐大的參數,而是僅僅其中中的一部分,即網絡中的一個Child Network?;谶@個想法,本文提出一個新的Fine-tuning的策略——Child-Tuning。Child-Tuning的想法很簡單,做法也很簡單,概括性地講可以分為兩個步驟:

Step1:在預訓練模型中發現確認Child Network,并生成對應的Weights的Gradients 0-1 Mask;

Step2:在后向傳播計算完梯度之后,僅僅對Child Network中的參數進行更新,而其他參數保持不變。

在前面提到的Child-Tuning的兩個步驟中,Step2即僅對Child Network中的參數進行更新相對簡單。我們可以通過一個梯度掩碼(Gradients Mask)來實現,即在計算出各個參數位置的梯度之后將其乘以一個0-1矩陣的梯度掩碼,屬于Child Network中參數的位置對應為1,而不屬于的對應為0,之后再進行參數的更新。

那問題的關鍵就落到了,怎么識別Step1提到的Child Network呢?本文探索了兩種算法。一種是與下游任務無關的Child-Tuning_F方法,另一種則是與下游任務相關、能夠自適應感知下游任務特點的Child-Tuning_D,這兩種方式各有優缺點。

任務無關算法Child-Tuning_F對于下游任務無關算法Child-Tuning_F(F for Task-Free) ,其最大的優點是簡單有效,在Fine-tune的過程中,只需要在每一步更新的迭代中,從伯努利分布中采樣得到一個Gradients Mask (M_t)即可,相當于在對網絡參數更新的時候隨機地將一部分梯度丟棄。

盡管方式簡單,我們從理論上證明(詳細見原論文)這種方法可以有效提高模型更新量的方差,有利于模型逃離局部最優點,最終收斂于一個相對比較平坦的損失曲面上,從而提高模型的泛化能力。任務相關算法Child-Tuning_D然而對于下游任務無關微調算法Child-Tuning_F,也有一個缺點,就是它對于不同的下游任務的策略都是一樣的,對于模型中的不同參數也都平等對待。

為此,我們提出了一個任務相關的Child-Tuning_D (D for Task-Driven ),讓選取Child Network的策略能夠針對不同的下游任務自適應地進行調整,選擇出與下游任務最相關最重要的參數來充當Child Network。具體的,我們引入Fisher Information Matrix(FIM)[2] 來估計每個參數對于下游任務的重要性程度,并與前人工作一致近似采用FIM的對角矩陣(即假設參數之間互相獨立)來計算各個參數相對下游任務的重要性分數[3],之后選擇分數最高的那部分參數作為我們的Child-Network。

盡管Child-Tuning_D擁有感知下游任務特性的能力,但同時計算Fisher Information也降低了方法的效率,我們不可能在每次迭代的時候都重新計算估計一次Child Network。

因此,我們采用的策略是在Fine-tuning一開始的時候識別出Child Network,并在接下來的迭代中都保持不變,也就是整個Fine-tuning過程只有這部分參數會被更新,我們的實驗證明了這種近似手段同樣可以取得不錯的效果(我們曾經嘗試過在每個epoch之后重新估計一次,但是效果反而不如自始自終保持一致的這種方式)。

02—

Child-Tuning 實現僅需幾行代碼

總的來說,(在基于Adam優化器下的)Child-Tuning的偽代碼如圖4所示,最關鍵的部分在于紅框內的內容,即發現Child Network,以及根據Child Network生成梯度掩模,從而實現僅對Child Network中的參數進行更新。

具體到代碼實現層面,就只需要在原來optimizer里加入簡單幾行代碼:

for p in model.parameters(): grad = p.grad.data

## Child-Tuning_F Begin

## reserve_p = 0.2 # the ratio of gradients that are reserved. grad_mask = Bernoulli(grad.new_full(size=grad.size(), fill_value=reserve_p))grad *= grad_mask.sample() / reserve_p

## Child-Tuning_F End ## # the followings are the original code of optimizer 。。..Child-Tuning代碼已開源到阿里預訓練體系AliceMind,關于實現的更多細節可以參看:https://github.com/alibaba/AliceMind/tree/main/ChildTuning。

03—

實驗結果

我們做的實驗主要探究了微調后模型的效果和泛化性能(更多有趣實驗可以參見論文:https://arxiv.org/pdf/2109.05687.pdf):

下游任務效果

我們選取了BERT-large, XLNet-large,RoBERTa-large和ELECTRA-large四個不同的預訓練模型,并在四個GLUE基準集上的任務,即CoLA,RTE,MRPC跟STS-B上進行實驗。從下表中可以看到,相比傳統微調算法(Vanilla Fine-tuning),使用Child-Tuning的兩個不同版本(Task-Free和Task-Driven)都能帶來提高,BERT平均提升+1.5,ELETRA平均提升+8.6。

微調后模型的泛化性能

我們通過兩種不同的方式來探究模型的泛化能力:域遷移實驗(Domain Transfer)和任務遷移實驗(Task Transfer),如果模型的泛化能力更好,產生的編碼表示更具有泛化性,那么在相應的遷移實驗里邊將會在目標任務中取得更好的效果。對于域遷移實驗(Domain Transfer),我們在一個NLI數據集上Fine-tune模型,之后直接將其在其他不同的NLI數據集上進行測試。

下表展現的是在源數據集MNLI跟SNLI(為模擬少樣本情況,均降采樣到5k)遷移到其他目標數據集上的結果??梢钥吹剑啾萔anilla Fine-tuning,Child-Tuning在目標數據集上都擁有更好的效果,這說明了使用Child-Tuning能夠有效提高模型泛化能力,防止在源數據集上過擬合。

類似地我們還進行了任務遷移實驗(Task Transfer),即在一個源任務上進行Fine-tune,之后將預訓練模型的參數凍結住,并遷移到另一個目標任務上,僅僅Fine-tune與目標任務相關的最頂層的線性分類器。下圖展示了在以MRPC為源任務,遷移到CoLA,STS-B,QNLI和QQP任務上的實驗結果,Child-Tuning相比Vanilla Fine-tuning在任務遷移實驗上同樣具有明顯的優勢,說明模型通過Child-Tuning的方法有效提高了泛化能力。88f06580-412b-11ec-b939-dac502259ad0.png

04—

小彩蛋:關于Rebuttal

這篇論文一開始的分數是4/4/3.5,經過rebuttal之后總共提高了1.5分,變成了4.5/4.5/4(滿分5分)。Reviewer主要關心的點就是本文與相關工作的區分度,比如Adapter[4],以及DIff-Pruning[5]等工作的對比。其實Child-Tuning跟這些工作還是就是有較大不同的,主要體現在:

a) 動機不同:這些工作主要聚焦于微調盡量少的參數而模型效果不會損失太多(所謂的paramter efficient learning),而Child-Tuning主要關注如何更好的提高模型的效果與泛化性能;

b) 方法不同:Adapter引入了額外的參數模塊,Diff-pruning則通過L0范數約束參數更新量,而Child-Tuning不需要額外的新模塊,只需要在模型內識別確定Child Network即可;

c) 效果不同:Adapter跟Diff-pruning僅僅取得的效果與原模型相當/可比,而Child-Tuning則明顯提升了模型在下游任務中的表現。

點評:分別從“動機-》方法-》結果”這三個方面闡釋清楚文章的貢獻的這個模板大家可以沿用到reviewer “質疑你文章novelty” 或者 “跟xxx文章很相似” 的評審意見中。From:羅福莉

當我們從這三方面做了非常詳細的clarify,充分解答了reviewer的最大疑惑之后,reviewer對我們的評價也就相應地提高了。所以,rebuttal的時候抓住reviewer最關心的(而不是回復全部的問題),才更有可能影響reviewer提分哦~

ps:文章的最后感謝本文共一的實習生 潤昕,看到你的飛速成長,比我自己發了論文還開心!期待以及相信你有更好的未來~

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    7134

    瀏覽量

    89548
  • 模型
    +關注

    關注

    1

    文章

    3298

    瀏覽量

    49197
  • 代碼
    +關注

    關注

    30

    文章

    4823

    瀏覽量

    69023

原文標題:極簡單但賊有效的Fine-tuning算法,幾行代碼最高漲點8%

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經預訓練好的大型深度學習模型基礎上,使用新的、特定任務相關的數據
    發表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗】營銷領域大模型的應用

    今天跟隨「大模型啟示錄」這本書,學習在營銷領域應用大模型。 大模型通過分析大量的消費者數據,包括購買歷史、瀏覽記錄、社交媒體互動等,能夠識別消費者的偏好和行為模式。這種分析能力有助于企
    發表于 12-24 12:48

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    準確性。 類別不平衡問題:某些類別的樣本數遠多于其他類別時,分類器可能會偏向多數類別,導致少數類別的預測精度較低。 過擬合風險:復雜的模型容易在訓練數據上過擬合,即學到了訓練數據中的
    發表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗】如何在客服領域應用大模型

    的功能和性能。因此,選擇具有良好可擴展性的模型可以適應未來業務的發展需求。在客服領域,處理客戶數據時可能涉及敏感信息。因此,在選擇模型時需要考慮其安全措施和隱私保護能力。確保數據傳輸和
    發表于 12-17 16:53

    AI大模型的訓練數據來源分析

    AI大模型的訓練數據來源廣泛且多元化,這些數據源對于構建和優化AI模型至關重要。以下是對AI大模型訓練
    的頭像 發表于 10-23 15:32 ?1085次閱讀

    使用AI大模型進行數據分析的技巧

    使用AI大模型進行數據分析的技巧涉及多個方面,以下是一些關鍵的步驟和注意事項: 一、明確任務目標和需求 在使用AI大模型之前,首先要明確數據分析的任務目標,這將直接影響
    的頭像 發表于 10-23 15:14 ?1093次閱讀

    PLC遇上IOT網關可以解決什么問題

    可編程邏輯控制器(PLC)在制造業、石油化工、能源、紡織、印刷、環保等領域占據著至關重要的地位。作為專門為工業場景而設計的數字計算機系統,PLC的核心功能在于通過不間斷采集輸入信號、依據內部預置邏輯規則進行解析判斷,并由此生成對應的輸出控制信號,形成自動化的控制閉環,確保在任何嚴苛條件下都能可靠運作。 隨著云計算、信息化等技術的發展,PLC也暴露出各種各樣的問題。雖然不影響使用,但往往會對企業數字化轉型,需要尋求
    的頭像 發表于 07-17 10:39 ?307次閱讀
    <b class='flag-5'>當</b>PLC<b class='flag-5'>遇上</b>IOT網關可以解決什么問題

    飛舞在化工企業的AI大模型夢想

    化工行業遇上AI大模型,數智化轉型其實很簡單
    的頭像 發表于 07-12 12:20 ?1292次閱讀
    飛舞在化工企業的AI大<b class='flag-5'>模型</b>夢想

    煤都鄂爾多斯的“模”變

    模型混合云的技術創新,遇上平臺化建設的模式創新
    的頭像 發表于 06-28 17:12 ?1577次閱讀
    煤都鄂爾多斯的“?!弊? />    </a>
</div>                            <div   id=

    消費遇上AI:大模型如何成為行業“網紅”?

    在少數,他們的真實體驗反饋進海底撈的系統,基于豆包大模型打造的AI助手對顧客們的海量評價進行閱讀和分析,100封、1000封、10000封評價,匯成一份詳細的店鋪服務質
    的頭像 發表于 06-06 08:05 ?278次閱讀
    <b class='flag-5'>當</b>消費<b class='flag-5'>遇上</b>AI:大<b class='flag-5'>模型</b>如何成為行業“網紅”?

    數字孿生:數字科技遇上現實世界

    數字孿生是指通過數字化技術,將物理世界的實體與虛擬數字模型相聯系,從而實現實時復制和仿真的技術。它的出現,為我們打開了一扇通往未來的大門。數字孿生正在深刻改變著我們的生活和工作方式,帶來了前所未有
    的頭像 發表于 05-13 16:41 ?460次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    操作。所謂零樣本提示(Zero-Shot Prompt),指的是在提示詞中不包含與指令任務相似的任何示例。 大語言模型訓練完成后,它便具備了分析情緒和識別命名實體等常見任務的能力,這些能力源于預訓練
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    大語言模型的核心特點在于其龐大的參數量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養通用的處理能力。然而,隨著學習容量的增加,對預訓練數據的需求也相應
    發表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    處理各種自然語言任務時都表現出了驚人的能力。這促使一個新的研究方向誕生——基于Transformer 的預訓練語言模型。這類模型的核心思想是先利用大規模的文本數據進行預訓練,捕捉語言的通用特征,再針對
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領域的尖端技術,憑借龐大的參數量和卓越的語言理解能力贏得了廣泛關注。它基于深度學習,利用神經網絡框架來理解和生成自然語言文本。這些模型通過訓練海量的文本數據集,如
    發表于 05-04 23:55
    主站蜘蛛池模板: 亚洲成A人片在线观看中文不卡 | 好看AV中文字幕在线观看 | 东日韩二三区 | 麻花豆传媒剧国产免费mv观看 | 亚洲AV午夜精品麻豆AV | 中文字幕免费在线视频 | 97综合久久 | 国产成人高清在线观看播放 | 久久久久久久久性潮 | 国产美女影院 | 日韩黄色免费 | 曰本熟妇乱妇色A片在线 | 精品日产1区2卡三卡麻豆 | 真人做受120分钟免费看 | 最近最新中文字幕MV高清在线 | 色翁荡息又大又硬又粗又爽电影 | 99久久国产综合精品网成人影院 | 欧美16一17sex性hd | 婷婷午夜影院 | 日本午夜精品理论片A级APP发布 | 精品视频一区二区三三区四区 | 久久精品国产午夜伦班片 | 调教女M屁股撅虐调教 | 四虎国产一区 | 精品AV亚洲乱码一区二区 | 新妺妺窝人体色WWW 新金梅瓶玉蒲团性奴3 | 国产免费高清mv视频在线观看 | 狠狠色综合久久丁香婷婷 | 肉多荤文高h羞耻校园 | 狠狠久久免费视频在线 | 美美哒免费影视8 | 99热在线视频这里只精品 | 久久国产香蕉 | 九九99热久久精品在线6 | 成人国内精品久久久久影院 | 欧美内射深插日本少妇 | 永久免费精品影视网站 | 全黄h全肉短篇禁乱np | 被老师按在办公桌吸奶头 | 老师我好爽再深一点老师好涨 | 日产日韩亚洲欧美综合搜索 |