色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

文本生成任務中引入編輯方法的文本生成

深度學習自然語言處理 ? 來源:哈工大訊飛聯合實驗室 ? 作者:吳珂 ? 2021-07-23 16:56 ? 次閱讀

4. FELIX

FELIX是Google Research在“FELIX: Flexible Text Editing Through Tagging and Insertion”一文中提出的文本生成模型,該論文發表于EMNLP 2020 Findings。
受限于有限的編輯操作標簽,LaserTagger、Seq2Edits主要進行單詞或短語的保留、刪除、替換操作,更多的是對文本的局部編輯,無法直接改變文本的結構特征(例如主動句改被動句:“They ate steak for dinner.” “Steak was eaten for dinner.”)。

同時,受限于詞典規模,LaserTagger與Seq2Edits也不支持大量插入新文本。而如果使用自回歸的方法來支持大量插入新文本,勢必大大降低模型的推理速度。所以,FELIX希望能夠兼顧文本生成的推理速度和靈活性。

本篇工作的主要改進有:
(1)在保留、刪除等基本編輯操作上引入重排序(reorder)操作。通過重排序操作,在復用重復文本的同時實現文本結構特征的改變,提高文本生成的靈活性。
(2)受BERT自監督預訓練任務啟發,通過引入Masked Language Model(MLM)來預測待插入的新詞。

4.1 主要方法

FELIX將文本生成分為兩步:通過標注模型(tagging model)對源文本標注編輯標簽后進行重排序,然后輸入插入模型(insertion model)對要插入的新文本進行預測。

標注

以圖10為例,源文本為 “The big very loud cat.” ;目標文本為 “The noisy large cat.” 。其中為tagger模塊預測的標簽序列;為經過Pointer重排序后加入特殊標簽(, )得到的序列,將輸入插入模型預測得到最終結果。

7e9bb49e-e0fb-11eb-9e57-12bb97331649.png

圖 10 FELIX對插入文本的兩種預測方式

FELIX對編碼后的源文本進行標注,保留操作和刪除操作標簽仍為和。結合MLM,FELIX設計了兩種方式預測要插入的新文本:Masking 和 Infilling 。Masking 方式不僅需要模型預測插入內容,還需要模型預測插入文本的長度(如,對應中加入兩個標簽)。

Infilling 方式直接讓模型預測待插入的新文本的內容,不需要模型預測插入文本的長度。即,在中插入固定個數的標簽(實驗中插入8個即可覆蓋99%的樣本),預測插入內容時多余的標簽使用標簽覆蓋。

需要注意的是,在將輸入到MLM進行預測時,FELIX保留了待刪除的span(用一對特殊的token 和 將span括起來,而非直接將待刪除部分替換為標簽)。即使這樣做會導致fine-tuning和pre-training的不一致,但能夠保留更多的語義信息,提高模型預測的準確性。

重排序

為了保證推理效率,FELIX的重排序也是非自回歸(non-autoregressive)的,類似于non-projective dependency parsing。具體實現時使用constrained beam search來保證除了待刪除的token外,每一個token都會被指向,且避免有token被指向兩次而產生循環。

4.2 模型概述

FELIX tagging model:

Encoding: 使用12層的BERT-base模型對源文本進行編碼。

Tagging: 使用一層feed-forward layer預測標簽。

Pointing: 基于注意力機制的pointer network進行重排序。

FELIX insertion model:

12層的BERT-base模型。并使用預訓練權重進行初始化。

5. 實驗評價

三篇工作分別在句子融合、句子分割復述、語法糾錯等多種文本生成任務上進行了實驗,主要驗證了模型在三方面的性能:生成文本的質量、模型推理效率以及模型在小樣本上的表現。

句子融合(Sentence Fusion) ? ? ?
句子分割復述(Split & Rephrase) ? ?
文本摘要(Summarization) ? ?
語法糾錯(Grammatical Error Correction) ? ?
文本規范化(Text Normalization) ?
文本簡化(Text Simplification) ? ?
自動后編輯(Automatic Post-Editing) ?
LaserTagger Seq2Edits FELIX

5.1 生成質量

句子融合 & 分割復述

三篇工作均在句子融合任務上進行了實驗,使用數據集為DiscoFuse,評價指標為SARI、Exact。其中SARI將預測輸出與輸入文本以及reference比較,評價模型對源文本進行各種編輯操作后生成文本的“好壞”;Exact主要評價模型生成的文本和標準答案之間“有多接近”。

SARI Exact
full sequence model BERT2BERT 89.52 63.90
Seq2SeqBERT 85.30 53.60
edit-based model LaserTagger 85.45 53.80
Seq2Edits 88.73 61.71
FELIX 88.78 61.31

從上表中可以看出,基于編輯方法的生成模型較之傳統full sequence model在生成文本的質量上有下降,但改進后的Seq2Edits和FELIX在兩項指標上已經和full sequence model十分接近。

LaserTagger和Seq2Edits均在句子分割復述任務上進行了實驗。該任務為句子融合任務的逆任務,使用數據集為WikiSplit 。Seq2Edits在該項任務上表現較優。

SARI Exact
full sequence model Seq2SeqBERT 62.3 15.1
edit-based model LaserTagger 61.7 15.2
Seq2Edits 63.6 17.0

文本簡化

Seq2Edits和FELIX均在文本簡化任務上進行了測試,并與LaserTagger進行了對比。該任務需要在保持源文本基本語義的情況下,通過改寫降低源文本的復雜度,以方便兒童等特殊群體閱讀。實驗使用數據集為WikiLarge,評價指標為SARI。在該項任務上FELIX有著較好的表現。

SARI
edit-based model LaserTagger 32.31
Seq2Edits 37.16
FELIX 38.13

5.2 推理效率

在推理效率方面三篇工作均與傳統full sequence model進行了對比實驗,結果證明相較于傳統seq2seq方法,基于編輯方法確實能夠大大提高模型的推理速度。在推理速度上對三種模型進行橫向對比,FELIX最優,而Seq2Edits由于模型本身的復雜性,在三者中速度最慢(FELIX > LaserTagger > Seq2Edits)。

5.3 小樣本表現

LaserTagger和FELIX兩篇工作均在小樣本訓練數據上測試了模型性能。相比full sequence model而言,LaserTagger和FELIX兩者對訓練數據規模變化并不敏感(訓練數據規模從45k縮小到4.5k時full sequence model性能出現了較大下降),且在小樣本數據上FELIX表現要好于LaserTagger。

6. 總結

LaserTagger token-level;
保留、刪除、插入
根據訓練數據構造短語詞典,從詞典中直接選擇。 一輪序列標注;
非自回歸;
加速10x-100x (相比SEQ2SEQBERT)
Seq2Edits span-level;
三元組
不同任務有不同tag vocabulary
open-vocab 預測N個三元標簽組;
自回歸;
加速5.2x(相比 full sequence model)
FELIX token-level;
保留、刪除、MASK、重排序
open-vocab
用MLM預測MASK對應的token
標注+重排序+MLM;
非自回歸;
加速100x(相比 full sequence model)
模型 編輯操作 插入新文本 推理方式 推理效率

基于編輯方法的文本生成優勢與不足主要如下:

與full sequence models相比,推理速度大大加快。
模型輸出可解釋性強。
對訓練數據規模較不敏感;在小樣本上表現較好。
遵循較弱的語言模型。
生成的靈活性不足。
Pros Cons

未來工作的關鍵在于生成質量和推理效率的對立統一。目前基于編輯方法使用非自回歸預測輸出時,雖然能夠提高推理效率,但勢必會損失生成文本的質量。因此,質量和效率盡量做到“魚與熊掌二者兼得”將成為未來研究工作的希冀。

References

[1] Malmi, Eric, et al. "Encode, tag, realize: High-precision text editing." arXiv preprint arXiv:1909.01187 (2019).

[2] Stahlberg, Felix, and Shankar Kumar. “Seq2Edits: Sequence Transduction Using Span-level Edit Operations.” arXiv preprint arXiv:2009.11136 (2020)。

[3] Mallinson, Jonathan, et al. “Felix: Flexible text editing through tagging and insertion.” arXiv preprint arXiv:2003.10687 (2020)。

[4] https://ai.googleblog.com/2020/01/encode-tag-and-realize-controllable-and.html

[5] https://ai.googleblog.com/2021/05/introducing-felix-flexible-text-editing.html

[6] https://thinkwee.top/2021/05/11/text-edit-generation/

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 文本
    +關注

    關注

    0

    文章

    118

    瀏覽量

    17082

原文標題:基于編輯方法的文本生成(下)

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    圖紙模板文本變量

    進行定義。無論是系統內置的變量,還是用戶自定義的變量,都以這種方式表述。 系統內置文本變量 以下表格展示系統內置的文本變量,無需定義,可以直接使用: 比如說,如果在圖紙編輯定義了以
    的頭像 發表于 11-13 18:21 ?170次閱讀
    圖紙模板<b class='flag-5'>中</b>的<b class='flag-5'>文本</b>變量

    如何使用 Llama 3 進行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進行文本生成,可以通過以下幾種方式實現,取決于你是否愿意在本地運行模型或者使用現成的API
    的頭像 發表于 10-27 14:21 ?338次閱讀

    AIGC與傳統內容生成的區別

    AIGC : 主要面向非結構化數據的生成,如自然語言文本、圖像、音頻、視頻等。 這類數據規模更大,內在結構更復雜,對處理技術提出了更高要求。 傳統內容生成 : 主要處理結構化數據,如數據庫
    的頭像 發表于 10-25 15:13 ?391次閱讀

    AIGC技術在內容創作的應用

    通過深度學習、自然語言處理、圖像識別等技術,實現對文本、圖像、音頻和視頻等內容的自動生成。AIGC技術的核心優勢在于其高度的自動化和智能化,能夠在短時間內生成大量高質量的內容。 二、AIGC技術在內容創作
    的頭像 發表于 10-25 15:08 ?473次閱讀

    C# 調用2020版本Labview生成的.NET指令集報錯,2018不報錯

    用labview2018版本生成.net程序集不會報錯 用labview2022版本生成.net程序集會報錯是怎么回事
    發表于 10-23 15:08

    AI大模型在自然語言處理的應用

    AI大模型在自然語言處理(NLP)的應用廣泛且深入,其強大的語義理解和生成能力為NLP任務帶來了顯著的性能提升。以下是對AI大模型在NLP應用的介紹: 一、核心應用
    的頭像 發表于 10-23 14:38 ?446次閱讀

    RNN神經網絡適用于什么

    領域: 語言模型和文本生成 RNN在自然語言處理(NLP)領域有著廣泛的應用,特別是在語言模型和文本生成方面。RNN可以捕捉到文本的長距離依賴關系,從而
    的頭像 發表于 07-04 15:04 ?960次閱讀

    生成式AI的基本原理和應用領域

    復雜性和創新性的內容的技術。這種技術不僅限于文本生成,還廣泛應用于圖像、音頻、視頻等多個領域。本文將詳細探討生成式AI的原理、關鍵技術、應用領域以及面臨的挑戰。
    的頭像 發表于 07-04 11:50 ?1432次閱讀

    什么是LLM?LLM的工作原理和結構

    隨著人工智能技術的飛速發展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本生成
    的頭像 發表于 07-02 11:45 ?7613次閱讀

    谷歌發布Imagen 3,提升圖像文本生成技術

    已為谷歌人工智能研究所DeepMind掌門人的德米斯·哈薩比斯指出,相比于前款Imagen 2,Image 3能夠更加精準地解碼文字提示信息,并據此創建出更有創造力、細節豐富且出錯率較低的圖像。
    的頭像 發表于 05-15 11:24 ?658次閱讀

    阿里云發布通義千問2.5大模型,多項能力超越GPT-4

    阿里云隆重推出了通義千問 2.5 版,宣稱其“技術進步,全面超越GPT-4”,尤其是在中文環境的多種任務(如文本理解、文本生成、知識問答及生活建議、臨時聊天及對話以及安全風險評估)方
    的頭像 發表于 05-09 14:17 ?950次閱讀

    Adobe Substance 3D整合AI功能:基于文本生成紋理、背景

    Substance 3D Stager是以Adobe Dimension為基礎改造而成,使用者可直觀地進行3D場景構建,包括模型、材質和燈光等要素。借助其強大功能,能夠生成極具觀賞性的虛擬照片。
    的頭像 發表于 03-20 10:28 ?719次閱讀

    OpenVINO?協同Semantic Kernel:優化大模型應用性能新路徑

    作為主要面向 RAG 任務方向的框架,Semantic Kernel 可以簡化大模型應用開發過程,而在 RAG 任務中最常用的深度學習模型就是 Embedding 和 Text completion,分別實現文本的語義向量化和
    的頭像 發表于 03-08 10:41 ?697次閱讀
    OpenVINO?協同Semantic Kernel:優化大模型應用性能新路徑

    谷歌發布Lumiere人工智能文本視頻生成

    隨著近年來AI應用的不斷普及和改進,自動文本創作系統如ChatGPT已經被廣泛接受,成為聊天窗口中的常客。類似地,文本到圖畫生成工具讓人們得以繪制出超現實的視覺效果。然而,谷歌此次推出的Lumiere,則站上了新的高峰,進一步推
    的頭像 發表于 01-31 16:45 ?846次閱讀

    高級檢索增強生成技術(RAG)全面指南

    ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成文本到圖像生成任務中表現出令人印象深刻的性能。
    的頭像 發表于 12-25 15:16 ?4853次閱讀
    高級檢索增強<b class='flag-5'>生成</b>技術(RAG)全面指南
    主站蜘蛛池模板: 国产亚洲精品精品精品 | 2019天天射干| 色吧.com| 免费果冻传媒在线完整观看| 国产精品成人无码免费视频| 99精品国产高清自在线看超| 亚洲精品国产SUV| 日本午夜精品一区二区三区电影 | 国产欧美另类久久久精品免费| 91区国产福利在线观看午夜| 亚洲精品乱码久久久久久v| 日本在线免费播放| 蕾丝边娱乐网| 国精产品一区一区三区有限公司 | 好大好硬好湿再深一点网站| 成人免费观看国产高清| 在线免费国产| 亚洲精品国产在线网站| 色噜噜狠狠色综合欧洲| 欧美xxxx性喷潮| 伦理片97影视网| 精品国产麻豆免费人成网站| 姑娘视频日本在线播放| 91chinesevideo| 伊人久久大香线蕉综合亚洲| 性欧美videofree中文字幕| 日韩欧无码一区二区三区免费不卡 | 97免费在线视频| 樱桃视频影院在线播放 | 一二三四在线观看韩国 | 父亲猜女儿在线观看| hdsex老太婆70| 97色伦97色伦国产| 最近日本字幕免费高清| 一区二区三区国产亚洲网站| 亚洲破处女| 亚洲精品国偷拍自产在线| 亚洲haose在线观看| 亚洲91av| 亚洲精品沙发午睡系列| 亚洲精品免播放器在线观看|