色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

論文插圖也能自動(dòng)生成了!用到了擴(kuò)散模型,還被ICLR 2023接收!

CVer ? 來(lái)源:機(jī)器之心 ? 2023-06-27 14:32 ? 次閱讀

如果論文中的圖表不用繪制,對(duì)于研究者來(lái)說(shuō)是不是一種便利呢?有人在這方面進(jìn)行了探索,利用文本描述生成論文圖表,結(jié)果還挺有模有樣的呢!

生成式 AI 已經(jīng)風(fēng)靡了人工智能社區(qū),無(wú)論是個(gè)人還是企業(yè),都開(kāi)始熱衷于創(chuàng)建相關(guān)的模態(tài)轉(zhuǎn)換應(yīng)用,比如文生圖、文生視頻、文生音樂(lè)等等。

最近呢,來(lái)自 ServiceNow Research、LIVIA 等科研機(jī)構(gòu)的幾位研究者嘗試基于文本描述生成論文中的圖表。為此,他們提出了一種 FigGen 的新方法,相關(guān)論文還被 ICLR 2023 收錄為了 Tiny Paper。

be911d86-14a8-11ee-962d-dac502259ad0.png

論文地址:https://arxiv.org/abs/2306.00800

也許有人會(huì)問(wèn)了,生成論文中的圖表有什么難的呢?這樣做對(duì)于科研又有哪些幫助呢?

科研圖表生成有助于以簡(jiǎn)潔易懂的方式傳播研究結(jié)果,而自動(dòng)生成圖表可以為研究者帶來(lái)很多優(yōu)勢(shì),比如節(jié)省時(shí)間和精力,不用花大力氣從頭開(kāi)始設(shè)計(jì)圖表。此外設(shè)計(jì)出具有視覺(jué)吸引力且易理解的圖表能使更多的人訪問(wèn)論文。

然而生成圖表也面臨一些挑戰(zhàn),它需要表示框、箭頭、文本等離散組件之間的復(fù)雜關(guān)系。與生成自然圖像不同,論文圖表中的概念可能有不同的表示形式,需要細(xì)粒度的理解,例如生成一個(gè)神經(jīng)網(wǎng)絡(luò)圖會(huì)涉及到高方差的不適定問(wèn)題。

因此,本文研究者在一個(gè)論文圖表對(duì)數(shù)據(jù)集上訓(xùn)練了一個(gè)生成式模型,捕獲圖表組件與論文中對(duì)應(yīng)文本之間的關(guān)系。這就需要處理不同長(zhǎng)度和高技術(shù)性文本描述、不同圖表樣式、圖像長(zhǎng)寬比以及文本渲染字體、大小和方向問(wèn)題。

在具體實(shí)現(xiàn)過(guò)程中,研究者受到了最近文本到圖像成果的啟發(fā),利用擴(kuò)散模型來(lái)生成圖表,提出了一種從文本描述生成科研圖表的潛在擴(kuò)散模型 ——FigGen。

這個(gè)擴(kuò)散模型有哪些獨(dú)到之處呢?我們接著往下看細(xì)節(jié)。

模型與方法

研究者從頭開(kāi)始訓(xùn)練了一個(gè)潛在擴(kuò)散模型。

首先學(xué)習(xí)一個(gè)圖像自動(dòng)編碼器,用來(lái)將圖像映射為壓縮的潛在表示。圖像編碼器使用 KL 損失和 OCR 感知損失。調(diào)節(jié)所用的文本編碼器在該擴(kuò)散模型的訓(xùn)練中端到端進(jìn)行學(xué)習(xí)。下表 3 為圖像自動(dòng)編碼器架構(gòu)的詳細(xì)參數(shù)

然后,該擴(kuò)散模型直接在潛在空間中進(jìn)行交互,執(zhí)行數(shù)據(jù)損壞的前向調(diào)度,同時(shí)學(xué)習(xí)利用時(shí)間和文本條件去噪 U-Net 來(lái)恢復(fù)該過(guò)程。

be9d8ef4-14a8-11ee-962d-dac502259ad0.png

至于數(shù)據(jù)集,研究者使用了 Paper2Fig100k,它由論文中的圖表文本對(duì)組成,包含了 81,194 個(gè)訓(xùn)練樣本和 21,259 個(gè)驗(yàn)證樣本。下圖 1 為 Paper2Fig100k 測(cè)試集中使用文本描述生成的圖表示例。

bec707de-14a8-11ee-962d-dac502259ad0.png

模型細(xì)節(jié)

首先是圖像編碼器。第一階段,圖像自動(dòng)編碼器學(xué)習(xí)一個(gè)從像素空間到壓縮潛在表示的映射,使擴(kuò)散模型訓(xùn)練更快。圖像編碼器還需要學(xué)習(xí)將潛在圖像映射回像素空間,同時(shí)不丟失圖表重要細(xì)節(jié)(如文本渲染質(zhì)量)。

為此,研究者定義了一個(gè)具有瓶頸的卷積編解碼器,在因子 f=8 時(shí)對(duì)圖像進(jìn)行下采樣。編碼器經(jīng)過(guò)訓(xùn)練可以最小化具有高斯分布的 KL 損失、VGG 感知損失和 OCR 感知損失。

其次是文本編碼器。研究者發(fā)現(xiàn)通用文本編碼器不太適合生成圖表任務(wù)。因此他們定義了一個(gè)在擴(kuò)散過(guò)程中從頭開(kāi)始訓(xùn)練的 Bert transformer,其中使用大小為 512 的嵌入通道,這也是調(diào)節(jié) U-Net 的跨注意力層的嵌入大小。研究者還探索了不同設(shè)置下(8、32 和 128)的 transformer 層數(shù)量的變化。

最后是潛在擴(kuò)散模型。下表 2 展示了 U-Net 的網(wǎng)絡(luò)架構(gòu)。研究者在感知上等效的圖像潛在表示中執(zhí)行擴(kuò)散過(guò)程,其中該圖像的輸入大小被壓縮到了 64x64x4,使擴(kuò)散模型更快。他們定義了 1,000 個(gè)擴(kuò)散步驟和線性噪聲調(diào)度。

bed57922-14a8-11ee-962d-dac502259ad0.png

訓(xùn)練細(xì)節(jié)

為了訓(xùn)練圖像自動(dòng)編碼器,研究者使用了一個(gè) Adam 優(yōu)化器,它的有效批大小為 4 個(gè)樣本、學(xué)習(xí)率為 4.5e?6,期間使用了 4 個(gè) 12GB 的英偉達(dá) V100 顯卡。為了實(shí)現(xiàn)訓(xùn)練穩(wěn)定性,他們?cè)?50k 次迭代中 warmup 模型,而不使用判別器。

對(duì)于訓(xùn)練潛在擴(kuò)散模型,研究者也使用 Adam 優(yōu)化器,它的有效批大小為 32,學(xué)習(xí)率為 1e?4。在 Paper2Fig100k 數(shù)據(jù)集上訓(xùn)練該模型時(shí),他們用到了 8 塊 80GB 的英偉達(dá) A100 顯卡。

實(shí)驗(yàn)結(jié)果

在生成過(guò)程中,研究者采用了具有 200 步的 DDIM 采樣器,并且為每個(gè)模型生成了 12,000 個(gè)樣本來(lái)計(jì)算 FID, IS, KID 以及 OCR-SIM1。穩(wěn)重使用無(wú)分類(lèi)器指導(dǎo)(CFG)來(lái)測(cè)試超調(diào)節(jié)。

下表 1 展示了不同文本編碼器的結(jié)果。可見(jiàn),大型文本編碼器產(chǎn)生了最好的定性結(jié)果,并且可以通過(guò)增加 CFG 的規(guī)模來(lái)改進(jìn)條件生成。雖然定性樣本沒(méi)有足夠的質(zhì)量來(lái)解決問(wèn)題,但 FigGen 已經(jīng)掌握了文本和圖像之間的關(guān)系。

bedeecaa-14a8-11ee-962d-dac502259ad0.png

下圖 2 展示了調(diào)整無(wú)分類(lèi)器指導(dǎo)(CFG)參數(shù)時(shí)生成的額外 FigGen 樣本。研究者觀察到增加 CFG 的規(guī)模(這在定量上也得到了體現(xiàn))可以帶來(lái)圖像質(zhì)量的改善。

bf09fe04-14a8-11ee-962d-dac502259ad0.png

下圖 3 展示了 FigGen 的更多生成示例。要注意樣本之間長(zhǎng)度的變化,以及文本描述的技術(shù)水平,這會(huì)密切影響到模型正確生成可理解圖像的難度。

bf6638ea-14a8-11ee-962d-dac502259ad0.png

?

不過(guò)研究者也承認(rèn),盡管現(xiàn)在這些生成的圖表不能為論文作者提供實(shí)際幫助,但仍不失為一個(gè)有前景的探索方向。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4774

    瀏覽量

    100896
  • 人工智能
    +關(guān)注

    關(guān)注

    1792

    文章

    47425

    瀏覽量

    238957
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3267

    瀏覽量

    48923

原文標(biāo)題:論文插圖也能自動(dòng)生成了!用到了擴(kuò)散模型,還被ICLR 2023接收!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于擴(kuò)散模型的圖像生成過(guò)程

    近年來(lái),擴(kuò)散模型在文本到圖像生成方面取得了巨大的成功,實(shí)現(xiàn)了更高圖像生成質(zhì)量,提高了推理性能,可以激發(fā)擴(kuò)展創(chuàng)作靈感。 不過(guò)僅憑文本來(lái)控制圖
    的頭像 發(fā)表于 07-17 11:00 ?2766次閱讀
    基于<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的圖像<b class='flag-5'>生成</b>過(guò)程

    如何在PyTorch中使用擴(kuò)散模型生成圖像

    除了頂尖的圖像質(zhì)量,擴(kuò)散模型還帶來(lái)了許多其他好處,包括不需要對(duì)抗性訓(xùn)練。對(duì)抗訓(xùn)練的困難是有據(jù)可查的。在訓(xùn)練效率的話題上,擴(kuò)散模型還具有可伸縮性和并行性的額外好處。
    發(fā)表于 11-22 15:51 ?523次閱讀
    如何在PyTorch中使用<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b><b class='flag-5'>生成</b>圖像

    AD8275 spice模型“AD8275.cir”自動(dòng)生成了一個(gè)LTspice模型用來(lái)仿真,仿真時(shí)彈出圖片所示窗口如何處理?

    我用官網(wǎng)的AD8275 spice模型“AD8275.cir”自動(dòng)生成了一個(gè)LTspice模型用來(lái)仿真,仿真時(shí)彈出圖片所示窗口,如何處理?
    發(fā)表于 06-04 12:27

    基于模型設(shè)計(jì)的HDL代碼自動(dòng)生成技術(shù)綜述

    代碼冗長(zhǎng)和在不同設(shè)計(jì)階段重新利用模型時(shí)很難更改的問(wèn)題,在團(tuán)隊(duì)間用于交流的需求、技術(shù)規(guī)范、測(cè)試等其他文檔可能引起歧義和誤解。 基于高層次抽象的建模和可綜合的邏輯代碼自動(dòng)生成技術(shù)成為被重
    發(fā)表于 06-08 09:29

    ICLR 2019在官網(wǎng)公布了最佳論文獎(jiǎng)!

    今年 ICLR接收 1578 篇投稿,相較去年 981 篇有了很大的增加,錄用結(jié)果如下:1.5% 錄用為 oral 論文(24 篇)、30.2% 錄用為 poster 論文(476
    的頭像 發(fā)表于 05-07 09:00 ?4456次閱讀
    <b class='flag-5'>ICLR</b> 2019在官網(wǎng)公布了最佳<b class='flag-5'>論文</b>獎(jiǎng)!

    近期必讀的6篇ICLR 2021相關(guān)論文

    Language Understanding 本文設(shè)計(jì)了提出對(duì)當(dāng)前在NLP領(lǐng)域下針對(duì)數(shù)據(jù)增廣場(chǎng)景下如何生成更多高質(zhì)量和更多樣的數(shù)據(jù)及如何提升模型效果提出統(tǒng)一的模型,首先提出利用統(tǒng)一的組合策略對(duì)已有
    的頭像 發(fā)表于 11-03 17:21 ?2882次閱讀
    近期必讀的6篇<b class='flag-5'>ICLR</b> 2021相關(guān)<b class='flag-5'>論文</b>

    ICLR 2021杰出論文獎(jiǎng)出爐 讓我們看看前八位優(yōu)秀論文有哪些

    ICLR 2021杰出論文獎(jiǎng)出爐今年共有2997篇投稿,接收860篇,最后共有8篇獲得杰出論文獎(jiǎng)。 這8篇論文中,谷歌成最大贏家,共有4篇
    的頭像 發(fā)表于 04-13 16:57 ?3641次閱讀
    <b class='flag-5'>ICLR</b> 2021杰出<b class='flag-5'>論文</b>獎(jiǎng)出爐 讓我們看看前八位優(yōu)秀<b class='flag-5'>論文</b>有哪些

    擴(kuò)散模型在視頻領(lǐng)域表現(xiàn)如何?

    在視頻生成領(lǐng)域,研究的一個(gè)重要里程碑是生成時(shí)間相干的高保真視頻。來(lái)自谷歌的研究者通過(guò)提出一個(gè)視頻生成擴(kuò)散模型來(lái)實(shí)現(xiàn)這一里程碑,顯示出非常有希
    的頭像 發(fā)表于 04-13 10:04 ?1700次閱讀

    蒸餾無(wú)分類(lèi)器指導(dǎo)擴(kuò)散模型的方法

    去噪擴(kuò)散概率模型(DDPM)在圖像生成、音頻合成、分子生成和似然估計(jì)領(lǐng)域都已經(jīng)實(shí)現(xiàn)了 SOTA 性能。同時(shí)無(wú)分類(lèi)器(classifier-free)指導(dǎo)進(jìn)一步提升了
    的頭像 發(fā)表于 10-13 10:35 ?1224次閱讀

    如何加速生成2 PyTorch擴(kuò)散模型

    加速生成2 PyTorch擴(kuò)散模型
    的頭像 發(fā)表于 09-04 16:09 ?1113次閱讀
    如何加速<b class='flag-5'>生成</b>2 PyTorch<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>

    頂刊TPAMI 2023生成式AI與圖像合成綜述發(fā)布!

    近期,火熱的擴(kuò)散模型被廣泛應(yīng)用于多模態(tài)合成與編輯任務(wù)。例如效果驚人的DALLE-2和Imagen都是基于擴(kuò)散模型實(shí)現(xiàn)的。相比于GAN,
    的頭像 發(fā)表于 09-05 16:06 ?754次閱讀
    頂刊TPAMI <b class='flag-5'>2023</b>!<b class='flag-5'>生成</b>式AI與圖像合成綜述發(fā)布!

    ICCV 2023 | 重塑人體動(dòng)作生成,融合擴(kuò)散模型與檢索策略的新范式ReMoDiffuse來(lái)了

    知識(shí),涉及昂貴的系統(tǒng)和軟件,不同軟硬件系統(tǒng)之間可能存在兼容性問(wèn)題等。隨著深度學(xué)習(xí)的發(fā)展,人們開(kāi)始嘗試使用生成模型來(lái)實(shí)現(xiàn)人體動(dòng)作序列的自動(dòng)生成,例如通過(guò)輸入文本描述,要求
    的頭像 發(fā)表于 09-10 22:30 ?818次閱讀
    ICCV <b class='flag-5'>2023</b> | 重塑人體動(dòng)作<b class='flag-5'>生成</b>,融合<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>與檢索策略的新范式ReMoDiffuse來(lái)了

    谷歌新作UFOGen:通過(guò)擴(kuò)散GAN實(shí)現(xiàn)大規(guī)模文本到圖像生成

    擴(kuò)散模型和 GAN 的混合模型最早是英偉達(dá)的研究團(tuán)隊(duì)在 ICLR 2022 上提出的 DDGAN(《Tackling the Generative Learning Trilemma
    的頭像 發(fā)表于 11-21 16:02 ?648次閱讀
    谷歌新作UFOGen:通過(guò)<b class='flag-5'>擴(kuò)散</b>GAN實(shí)現(xiàn)大規(guī)模文本到圖像<b class='flag-5'>生成</b>

    ICLR 2024高分投稿:用于一般時(shí)間序列分析的現(xiàn)代純卷積結(jié)構(gòu)

    這篇是 ICLR 上用 TCN 來(lái)做一般的時(shí)間序列分析的論文,在 Rebuttal 之后的分?jǐn)?shù)為 888,算得上是時(shí)間序列領(lǐng)域相關(guān)的論文中最高分那一檔了。本文提出了一個(gè) ModernTCN 的
    的頭像 發(fā)表于 12-18 16:05 ?910次閱讀
    <b class='flag-5'>ICLR</b> 2024高分投稿:用于一般時(shí)間序列分析的現(xiàn)代純卷積結(jié)構(gòu)

    基于DiAD擴(kuò)散模型的多類(lèi)異常檢測(cè)工作

    現(xiàn)有的基于計(jì)算機(jī)視覺(jué)的工業(yè)異常檢測(cè)技術(shù)包括基于特征的、基于重構(gòu)的和基于合成的技術(shù)。最近,擴(kuò)散模型因其強(qiáng)大的生成能力而聞名,因此本文作者希望通過(guò)擴(kuò)散
    的頭像 發(fā)表于 01-08 14:55 ?1455次閱讀
    基于DiAD<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的多類(lèi)異常檢測(cè)工作
    主站蜘蛛池模板: 大相蕉伊人狼人久草av| 99热这里只有 精品| 欧美在线亚洲综合国产人| 久久成人免费观看草草影院| 国产精品久久婷婷五月色| 邓奴的视频IVK| av影音先锋影院男人站| 99re久久热在这里精品| 最新高清无码专区| 中文在线观看永久免费| 在线免费观看国产视频| 伊人久久精品AV无码一区| 亚洲在线2018最新无码| 亚洲一区免费在线观看| 亚洲最大日夜无码中文字幕| 亚洲视频成人| 夜色爽爽爽久久精品日韩| 野花视频在线观看免费| 亚洲中文字幕无码一久久区| 亚洲一区免费在线观看| 曰韩一本道高清无码av| 做你的爱人BD日本| 99爱在线精品视频免费观看9| 99视频全部看免费观| 爆操日本美女| 国产成人小视频在线观看| 国产免费麻传媒精品国产AV| 国精产品一区一区三区有限| 精品久久久久久无码人妻国产馆| 久久黄色免费网站| 免费视频网站嗯啊轻点| 欧美精品AV一区二区无码| 日本一二三区在线视频| 桃花论坛POWERED2019| 亚洲 综合 自拍 精品 在线| 亚洲午夜精品AV无码少妇| 做a爱片的全过程| xx在线观看| 国产三级91| 久久视频在线视频观看天天看视频| 空姐被黑人 苏晓曼|