色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

受控文本生成模型的一般架構及故事生成任務等方面的具體應用

深度學習自然語言處理 ? 來源:哈工大訊飛聯(lián)合實驗室 ? 作者:申資卓 ? 2021-10-13 09:46 ? 次閱讀

來自:哈工大訊飛聯(lián)合實驗室

本期導讀:本文是對受控文本生成任務的一個簡單的介紹。首先,本文介紹了受控文本生成模型的一般架構,點明了受控文本生成模型的特點。然后,本文介紹了受控文本生成技術在故事生成任務和常識生成任務上的具體應用,指出了受控文本生成技術在具體應用場景下的改進方向。

0. 什么是受控文本生成

文本生成任務是自然語言處理領域十分重要的一類任務。文本摘要、語法糾錯、人機對話等很多自然語言處理任務都可以被視為文本生成任務。GPT-2、BART、T5等文本生成相關的技術也在這些任務上取得了較好的效果。

受控文本生成任務與常規(guī)的文本生成任務有一些不同。常規(guī)的文本生成任務對生成文本的內容(Content)通常沒有強制性的約束,而受控文本生成任務會要求生成文本的內容必須滿足一些既定的約束條件,如風格(Style)、主題(Topic)等。

例如,文本風格轉換(Text Style Transfer)就是一類十分經典的受控文本生成任務,該任務要求生成文本的內容在語義上需要與轉換前保持一致,在風格上需要轉換為預定義好的目標風格。從應用的角度來看,受控文本生成技術更有希望構建出場景適配的、用戶可接受的文本生成系統(tǒng)。因此,受控文本生成技術已經被越來越多的研究者關注。

1. 受控文本生成模型的一般架構

CMU的一些研究者們發(fā)表在COLING 2020的一篇論文對受控文本生成模型的一般架構(見圖1)進行了比較細致的描述。受控文本生成模型在生成受控文本時可以通過5個子模塊對生成文本進行控制。

第一個模塊稱為額外輸入模塊(External Input module),該模塊負責提供生成受控文本時的初始信號

第二個模塊稱為序列輸入模塊(Sequential Input module),該模塊負責提供生成受控文本時每個時間步上的輸入。

第三個模塊稱為生成操作模塊(Generator Operations module),該模塊決定每個時間步向量表示的計算方式,即是使用RNN計算,還是使用Transformer計算,亦或是使用其他計算方式。

第四個模塊稱為輸出模塊(Output module),該模塊負責將每個時間步的向量表示映射為輸出結果。

第五個模塊稱為訓練目標模塊(Training Objective module),該模塊負責損失函數的計算。

其中額外輸入模塊,是受控文本生成模型中比較特殊且重要的一個模塊,該模塊通常會提供一個與控制目標相關的向量表示作為受控文本生成的初始信號,從而保證生成的文本滿足預定義的控制目標。另外,輸出模塊也是受控文本生成模型致力于改進的一個模塊。常規(guī)的文本生成任務只需要將每個時間步的向量表示映射為詞表分布作為輸出空間即可,而在受控文本生成模型中就需要通過某種方式改變輸出空間的分布去獲得期望的輸出結果。

2. 受控文本生成技術在故事生成任務上的應用

本節(jié)介紹一個發(fā)表在EMNLP 2020上的利用受控文本生成技術改進故事生成的工作。該工作使用的數據集為ROCStories dataset(該數據集中的每個故事都由5個句子組成),其任務設定為給定故事的第一個句子,機器自動生成后面的句子。

如果不使用受控文本生成技術,該任務就是一個簡單的語言模型式的文本生成任務,直接使用GPT-2就可以完成。但是,直接使用GPT-2生成的故事很難保證生成的結果是語義連貫且邏輯自洽的。因此,將受控文本生成技術引入到故事生成任務中就有可能控制故事生成的內容,從而改進故事生成的效果。

該工作首先使用一個基于GPT-2的關鍵詞預測模型預測出與下一句相關的關鍵詞,然后使用這些關鍵詞去大規(guī)模的知識庫中檢索出與這些關鍵詞相關的三元組,這些三元組會通過一些模板被轉化為句子。

由于這些由三元組轉化的句子數量較多且可能存在大量的噪音,因此,還需要一個與下一句信息相關聯(lián)的基于BERT的排序模型對這些句子進行排序,從而選擇出與下一句信息最相關的TopN個句子。在獲得這些來源于知識庫的句子后,我們就可以將這些句子作為控制信息并與當前句進行拼接一起作為GPT-2的輸入去生成下一句。上述流程需要循環(huán)進行直到生成故事中所有的句子。圖2是該工作整體的流程圖。

e3bc4c42-14b5-11ec-8fb8-12bb97331649.png

圖2 基于知識庫信息控制的故事生成流程圖

這個工作雖然沒有對受控文本生成模型進行改進,但是從大規(guī)模知識庫中獲取控制信息進行文本生成的思路還是有一定借鑒意義的。

3. 受控文本生成技術在常識生成任務上的應用

本節(jié)介紹一個發(fā)表在ACL 2021上將受控文本生成技術應用在常識生成任務上的工作。常識生成任務是一項比較新穎的文本生成任務。該任務的設定為給定一個概念集合,機器需要自動生成一個能夠描述這個概念集合的句子,并且生成的句子不能違背常識。例如,給定一個概念集合{apple, bag, put},理想情況下機器應該生成“A girl puts an apple in her bag”這樣的句子。如果機器生成了“A girl eats an apple”或者“A girl puts a bag in her apple”,都不能算是一個合格的生成結果。因此,要想獲得一個較好的生成結果,我們首先需要保證的就是概念集合里的概念都要出現在輸出結果中。

本節(jié)介紹的工作提出了一種名為“Mention Flags”的方法,通過在解碼端引入一個提及標記矩陣(Mention Flag Matrix)來標記輸入項與輸出項的提及關系,從而控制每個時間步解碼時的輸出。提及標記矩陣中的元素共有3種不同的取值,取0時表示該輸入項不是控制項,取1時表示該輸入項是控制項,但在輸出項中未出現。取2時表示該輸入項是控制項,并已經在輸出項中出現。以輸入為{apple, bag, put},輸出為“A girl puts an apple in her bag”為例。

在訓練時,提及標記矩陣可以通過輸入與輸出的對齊數據直接轉換得到。在推理時,我們只需要在每個時間步遞增式地擴充提及標記矩陣的每一列即可。

最后是如何將提及標記矩陣融入到模型中的問題。由于該工作使用的是基于Transformer的文本生成模型,其作者將提及標記矩陣視為輸入項與輸出項的相對位置(Relative Position),在計算輸出項與輸入項的交叉注意力(Cross Attention)時將相對位置信息融入到模型計算中。

4. 小結

本文簡單介紹了受控文本生成與常規(guī)文本生成任務的區(qū)別,并對受控文本生成模型的一般架構進行了闡述。受控文本生成的特殊點主要在于受控信息的獲取以及對輸出結果的控制。因此,要想獲得一個較好的受控文本生成系統(tǒng),就可以從這兩點上對文本生成的模型或方案進行改進。另外,文本還介紹了受控文本生成技術在故事生成任務和常識生成任務上的應用,這些方法和思想同樣可以借鑒到其他受控文本生成任務中。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • CMU
    CMU
    +關注

    關注

    0

    文章

    21

    瀏覽量

    15368
  • 數據集
    +關注

    關注

    4

    文章

    1221

    瀏覽量

    25192
  • GPT
    GPT
    +關注

    關注

    0

    文章

    368

    瀏覽量

    15861
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22414

原文標題:受控文本生成任務簡述

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    功能對比: 1. 核心定位差異 維度 DeepSeek-V3 DeepSeek-R1 目標場景 通用型任務文本生成、多輪對話等) 復雜推理與數學能力優(yōu)先(如STEM領域) 優(yōu)化方向 平衡性能與成本,覆蓋廣泛
    發(fā)表于 02-14 02:08

    生成式人工智能模型的安全可信評測

    近些年來,生成式人工智能技術取得了飛躍發(fā)展。隨著各式各樣的大模型不斷迭代升級,從一般通用生成能力,到各種專有領域的細分能力,再到更注重與用戶的實際交互,大
    的頭像 發(fā)表于 01-22 13:55 ?756次閱讀
    <b class='flag-5'>生成</b>式人工智能<b class='flag-5'>模型</b>的安全可信評測

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+Embedding技術解讀

    生成回答。在特定領域或任務中,可以通過微調Embedding模型來提高檢索的相關性和準確性。Embedding在大模型RAG技術中發(fā)揮著至關重要的作用。它不僅實現了
    發(fā)表于 01-17 19:53

    大語言模型優(yōu)化生成管理方法

    大語言模型的優(yōu)化生成管理是個系統(tǒng)工程,涉及模型架構、數據處理、內容控制、實時響應以及倫理監(jiān)管等多個層面。以下,是對大語言
    的頭像 發(fā)表于 12-02 10:45 ?266次閱讀

    NVIDIA推出全新生成式AI模型Fugatto

    NVIDIA 開發(fā)了個全新的生成式 AI 模型。利用輸入的文本和音頻,該模型可以創(chuàng)作出包含任意的音樂、人聲和聲音組合的作品。
    的頭像 發(fā)表于 11-27 11:29 ?656次閱讀

    如何訓練自己的LLM模型

    于什么任務,比如文本生成、翻譯、問答等。 明確你的模型需要達到的性能標準。 數據收集與處理 : 收集大量的文本數據,這些數據將用于訓練模型
    的頭像 發(fā)表于 11-08 09:30 ?1287次閱讀

    如何使用 Llama 3 進行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進行文本生成,可以通過以下幾種方式實現,取決于你是否愿意在本地運行模型或者使用現成的API
    的頭像 發(fā)表于 10-27 14:21 ?858次閱讀

    AIGC與傳統(tǒng)內容生成的區(qū)別

    AIGC(Artificial Intelligence Generated Content,人工智能生成內容)與傳統(tǒng)內容生成在多個方面存在顯著區(qū)別。以下是對這兩者的對比: 、數據類
    的頭像 發(fā)表于 10-25 15:13 ?1000次閱讀

    如何評估AI大模型的效果

    、SuperGLUE、SQuAD等。這些數據集提供了不同任務上的基準評估,使得不同模型在同一任務上的性能可以進行直接比較。 二、多樣性和覆蓋性測試 測試模型在不同類型的數據和
    的頭像 發(fā)表于 10-23 15:21 ?2481次閱讀

    AI大模型在自然語言處理中的應用

    AI大模型在自然語言處理(NLP)中的應用廣泛且深入,其強大的語義理解和生成能力為NLP任務帶來了顯著的性能提升。以下是對AI大模型在NLP中應用的介紹:
    的頭像 發(fā)表于 10-23 14:38 ?1152次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    習語言的表達方式和生成能力。通過預測文本中缺失的部分或下個詞,模型逐漸掌握語言的規(guī)律和特征。 常用的模型結構 Transformer
    發(fā)表于 08-02 11:03

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是類使用深度學習技術構建的自然語言處理(NLP)模型。LLM模型可以處理各種語言
    的頭像 發(fā)表于 07-09 09:55 ?1716次閱讀

    如何用C++創(chuàng)建簡單的生成式AI模型

    生成式AI(Generative AI)是種人工智能技術,它通過機器學習模型和深度學習技術,從大量歷史數據中學習對象的特征和規(guī)律,從而能夠生成全新的、完全原創(chuàng)的內容,包括
    的頭像 發(fā)表于 07-05 17:53 ?1436次閱讀

    生成式AI的基本原理和應用領域

    復雜性和創(chuàng)新性的內容的技術。這種技術不僅限于文本生成,還廣泛應用于圖像、音頻、視頻等多個領域。本文將詳細探討生成式AI的原理、關鍵技術、應用領域以及面臨的挑戰(zhàn)。
    的頭像 發(fā)表于 07-04 11:50 ?2706次閱讀

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    用于文本生成,根據提示或上下文生成連貫、富有創(chuàng)造性的文本,為故事創(chuàng)作等提供無限可能。大語言模型也面臨挑戰(zhàn)。
    發(fā)表于 05-04 23:55

    電子發(fā)燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品
    主站蜘蛛池模板: 午夜伦理在线观看 | 口内射精颜射极品合集 | 小p孩玩成年女性啪啪资源 小777论坛 | 最近最新的日本字幕MV | 十八禁啪啦啪漫画 | 夜色福利院在线看 | 在线播放毛片 | 99视频在线免费观看 | 亚洲欧美日韩高清中文在线 | 麻豆一区二区三区蜜桃免费 | 内射爽无广熟女亚洲 | 日本一卡2卡3卡四卡精品网站 | couo福利姬图库 | 亚洲伊人久久综合影院2021 | np高h肉辣一女多男 no视频在线观看 | 亚洲AV无码一区二区三区牛牛 | 色人阁综合 | 国产成人精品男人的天堂网站 | 啦啦啦 中文 中国 免费 高清在线 | 国产成人亚洲精品老王 | 天天槽任我槽免费 | 亚洲AV无码专区国产精品99 | 99E久热只有精品8在线直播 | 内射无码AV-区二区在线观看 | AV无码久久无遮挡国产麻豆 | WWW亚洲精品久久久乳 | 国产午夜在线视频 | 亚洲精品动漫免费二区 | 最近中文字幕无吗免费高清 | 最近韩国日本免费观看mv免费版 | 九九热在线免费观看 | 久久综合色一综合色88中文 | 欧美残忍xxxx极端 | 我解开了岳的乳第一个女人 | 国产av在线播放 | 国产深夜福利视频在线 | 欲乱艳荡少寡妇全文免费 | 久久国产视频网站 | 第一会所欧美无码原创 | 免费看毛片的网址 | 视频成人app永久在线观看 |