色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI的研究者們提出了一種新的生成模型,能快速輸出高清、真實的圖像

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-07-12 08:43 ? 次閱讀

風格遷移、變裝模型這些改變圖像屬性的任務之前都是GAN的熱門話題。現(xiàn)在,OpenAI的研究者們提出了一種新的生成模型,能快速輸出高清、真實的圖像。以下是論智對OpenAI博客的編譯。

這篇文章介紹了我們的新成果——Glow,這是一個可逆的生成模型,其中使用了可反復的1×1卷積網(wǎng)絡。2015年,我們曾推出過NICE,它是一種針對復雜高維進行建模的深度學習框架。在可逆模型的基礎上,研究人員簡化了NICE的網(wǎng)絡結構,使模型能生成更加真實的高分辨率圖像,并支持高效的采樣,能發(fā)現(xiàn)可以用來控制數(shù)據(jù)屬性的特征。下面讓我們看看這個模型到底怎么玩:

這是年輕貌美的瑟曦。

黑化之后:

滄桑的瑟曦:

除此之外,你還能改變人物頭發(fā)的顏色、眼睛大小和胡子。接下來,還有另一種玩法,即混合兩張圖:

碧昂斯和小李子Mix一下,長這樣。

這是Glow模型的一個交互式Demo,感興趣的讀者可以移步官網(wǎng)體驗試試,支持上傳自己的照片調整臉部屬性和合成兩張圖片。

動機

以上是研究者Prafulla Dhariwal和Durk Kingma的面部表情特征變化圖。模型在訓練時并沒有被給予屬性標簽,但是它學會了一種隱藏空間,在其中特定的方向對應不同特征的變化,例如胡子的茂密程度、年齡、發(fā)色等等

生成模型與數(shù)據(jù)的觀察有關,就像面對許多人臉圖片,從中學習一種模型,了解數(shù)據(jù)是如何生成的。學習估計數(shù)據(jù)生成的過程需要學習數(shù)據(jù)中所有的結構,并且成功的模型可以合成和數(shù)據(jù)很相似的輸出結果。精確的生成模型可應用的場景非常廣泛,例如語音識別、文本分析合成、半監(jiān)督學習和基于模型的控制。

Glow是一種可逆的生成模型,也可以稱作“流式”生成模型,是NICE和RealNVP技術的擴展。目前,流式生成模型的關注度并不如GAN和VAE。

流式生成模型的幾個優(yōu)點有:

確切的隱藏變量推斷和對數(shù)相似度評估。在VAE中,模型智能大致推斷與數(shù)據(jù)點相對應的隱藏變量的值,而GAN根本就沒有能推測隱藏變量的編碼器。但是在可逆生成模型中,這一過程能精確地推算出來。這不但能輸出一個精確的結果,還能對數(shù)據(jù)的對數(shù)相似度進行優(yōu)化,而不是之前對數(shù)據(jù)的下限值優(yōu)化。

高效的推理和合成。自回歸的模型,例如PixelCNN同樣是可逆的,但是這種模型的合成結果很難平行化,通常在平行硬件上很低效。而類似Glow的流式生成模型不論在推理還是合成方面都很高效。

為下游任務提供了有用的隱藏空間。自回歸模型的隱藏層有著位置的邊緣分布,使其更難對數(shù)據(jù)進行正確操作。在GAN中,數(shù)據(jù)點經(jīng)常不能直接表現(xiàn)在隱藏空間中,因為它們沒有編碼器,可能無法支持數(shù)據(jù)分布。在可逆生成模型和VAE上就沒有這種情況。

對節(jié)省內存有重大意義。可逆神經(jīng)網(wǎng)絡的計算梯度應該是恒定的內存量,而不是線性的。

結果

利用這種技術,我們在標準上比較了RealNVP和我們的Glow,RealNVP是在這之前表現(xiàn)最佳的流式生成模型。結果如下:

在含有30000張照片的數(shù)據(jù)集上訓練之后,模型生成的樣本

Glow模型能生成非常逼真的高分辨率圖像,并且非常高效。模型在NVIDIA 1080 Ti GPU上只用130毫秒(0.13秒)就生成了一張256×256的照片。

在隱藏空間插值

我們還可以在兩個隨機面孔之間進行插值,利用編碼器在兩個圖片之間進行編碼,并從中間點中取樣。注意,輸入的是隨機面孔,并不是模型中的樣本,所以這也證明了模型可以支持完全的目標分布。

變臉過程十分流暢

在隱藏空間中處理

無需標簽,我們就可以訓練一個流式模型,然后利用學習到的隱藏表示進行下游任務。這些語義分布可以改變頭發(fā)的顏色、圖片風格、音調高低或者文本情感。由于流式模型擁有完美的編碼器,你可以編碼輸入并且計算輸入的平均隱藏向量。二者間向量的方向可以用來將輸入向該方向改變。

這一過程只需要少量的標記數(shù)據(jù),并且模型一訓練完就能完成。在此之前,用GAN做這些需要訓練一個單獨的編碼器,而VAE需要保證解碼器和編碼器適用于分布數(shù)據(jù)。其他類似CycleGAN直接學習表示變化的函數(shù),也需要重新訓練每一個變化。

# Train flow model on large, unlabelled dataset X

m = train(X_unlabelled)

# Split labelled dataset based on attribute, say blonde hair

X_positive, X_negative = split(X_labelled)

# Obtain average encodings of positive and negative inputs

z_positive = average([m.encode(x) for x in X_positive])

z_negative = average([m.encode(x) for x in X_negative])

# Get manipulation vector by taking difference

z_manipulate = z_positive - z_negative

# Manipulate new x_input along z_manipulate, by a scalar alpha in [-1,1]

z_input = m.encode(x_input)

x_manipulated = m.decode(z_input + alpha * z_manipulate)

用流式模型改變屬性的簡單代碼

進步之處

相比之前的RealNVP,我們的進步之處主要是一個可逆的1×1卷積,以及刪減掉其他元素,簡化了模型。

RealNVP架構由兩種圖層組成:具有棋盤蒙版的圖層和通道蒙版的圖層。我們去除了棋盤樣的圖層,簡化了結構。剩下的通道類型的蒙版起到以下作用:

在通道維度中改變輸入的順序

將輸入分成A和B兩部分,從特征維度的中部開始

將A輸入到一個較淺的卷積神經(jīng)網(wǎng)絡。根據(jù)神經(jīng)網(wǎng)絡的輸出線性地對B進行轉換

連接A和B

可以看到我們的1×1卷積在性能上有大大的提升

除此之外,我們取消了批歸一化,將它替換成激活歸一圖層。該圖層利用基于數(shù)據(jù)的初始化,簡單地轉換并縮放激活,該初始化在給定初始小批量數(shù)據(jù)的情況下將激活規(guī)范化。

訓練規(guī)模

我們的結構結合了多種優(yōu)化,例如梯度檢查點,可以讓我們在較大規(guī)模上訓練流式生成模型。我們使用Horovod輕松地將模型在多個機器上進行了訓練;文章開頭的Demo用了8個GPU。

未來方向

這篇研究表明,訓練流式模型生成真實的高清圖像是很有潛力的,并且經(jīng)過學習的隱藏表示可以很容易用于下流任務。我們對未來工作的方向有以下計劃:

1.在可能性上比其他模型更有競爭力

在對數(shù)相似度上,自適應模型和VAE的表現(xiàn)比流式模型要好,但是他們在采樣和精確推理上不如流式模型。未來我們會嘗試結合這幾種模型,以彌補不足。

2.改進結構,提高計算和參數(shù)效率

為了生成逼真的高分辨率圖像,人臉生成模型利用大約200M的參數(shù)和將近600個卷積層,訓練起來成本很高。但是更淺的網(wǎng)絡表現(xiàn)得又不好。使用自注意力結構或者進行漸進式訓練可能會讓訓練成本更便宜。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關注

    關注

    2

    文章

    1089

    瀏覽量

    40535
  • 深度學習
    +關注

    關注

    73

    文章

    5512

    瀏覽量

    121410

原文標題:OpenAI提出能合成高清逼真圖像的模型:“我們和GAN不一樣!”

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    為什么生成模型值得研究

    1.Why study generative modeling? 人們可能很自然地想知道為什么生成模型值得研究,尤其是那些只能夠生成數(shù)據(jù)而不能提供密度函數(shù)估計的
    發(fā)表于 09-15 06:03

    一種解決連續(xù)問題的真實在線自然梯度行動-評論家算法

    策略梯度作為一種能有效解決連續(xù)空間決策問題的方法被廣泛研究.然而,由于在策略估計過程中存在較大的方差,因此基于策略梯度的方法往往受到樣本利用率低、收斂速度幔等限制.針對該問題。提出了真實
    發(fā)表于 12-19 16:14 ?1次下載
    <b class='flag-5'>一種</b>解決連續(xù)問題的<b class='flag-5'>真實</b>在線自然梯度行動<b class='flag-5'>者</b>-評論家算法

    研究者研發(fā)出了一種新型縫線 能夠監(jiān)測傷口的愈合情況

    據(jù)報道美研究者研發(fā)出了一種新型縫線,它能夠監(jiān)測傷口的愈合情況,并將數(shù)據(jù)發(fā)送到醫(yī)生端,而不僅是普通的皮外傷,器官甚至是骨植入物都可以用同樣的原理進行監(jiān)測。
    發(fā)表于 04-17 09:52 ?1261次閱讀

    衛(wèi)星圖像進行目標識別仍然困難重重,美國提出了一種方法

    為了解決模型無法檢測像素過小的目標、難以生成全新比例的圖像等限制,我們提出了一種經(jīng)過優(yōu)化的為衛(wèi)星圖像
    的頭像 發(fā)表于 06-30 09:41 ?6419次閱讀

    OpenAI最新提出的可逆生成模型Glow

    low是一種可逆生成模型(reversible generative model),也被稱為基于流的生成模型(flow-based gene
    的頭像 發(fā)表于 07-11 09:46 ?7335次閱讀

    OpenAI提出了一種回報設置方法RND

    在開發(fā)RND之前,OpenAI研究人員和加州大學伯克利分校的學者進行了合作,他們測試了在沒有環(huán)境特定回報的情況下,智能體的學習情況。因為從理論上來說,好奇心提供了一種更簡單的方法來教授智能體如何與各種環(huán)境進行交互,它不需要人為
    的頭像 發(fā)表于 11-05 15:15 ?3208次閱讀

    JD和OPPO的研究人員提出了一種姿勢引導的時尚圖像生成模型

    研究人員的主要目的在于訓練生成模型,將模特在當前姿勢上的圖像遷移到其他的目標姿勢上去,實現(xiàn)對于衣著等商品的全面展示。
    的頭像 發(fā)表于 08-02 14:50 ?2578次閱讀

    微軟亞洲研究院的研究提出了一種模型壓縮的新思路

    近日,來自微軟亞洲研究院自然語言計算組的研究提出了一種與顯式地利用蒸餾損失函數(shù)來最小化教師模型
    的頭像 發(fā)表于 11-24 09:48 ?1678次閱讀

    OpenAI發(fā)布根據(jù)文字生成圖像的人工智能系統(tǒng)

    據(jù)報道,舊金山人工智能研究公司OpenAI已經(jīng)開發(fā)了一種新系統(tǒng),根據(jù)短文本來生成圖像
    發(fā)表于 01-07 09:50 ?1335次閱讀

    一種具有語義區(qū)域風格約束的圖像生成框架

    。文中提出了具有語義區(qū)域風格約東的圖像生成框架,利用條件對抗生成網(wǎng)絡實現(xiàn)了圖像分區(qū)域的自適應風
    發(fā)表于 04-13 15:47 ?5次下載
    <b class='flag-5'>一種</b>具有語義區(qū)域風格約束的<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>框架

    一種全新的遙感圖像描述生成方法

    遙感圖像描述生成是同時涉及計算機視覺和自然語言處理領域的熱門研究話題,其主要工作是對于給定的圖像自動地生成
    發(fā)表于 04-20 11:21 ?2次下載
    <b class='flag-5'>一種</b>全新的遙感<b class='flag-5'>圖像</b>描述<b class='flag-5'>生成</b>方法

    一種基于改進的DCGAN生成SAR圖像的方法

    針對SAR圖像識別軟件,通過改進 DCGAN模型生成器與單判別器對抗的結構,采用多生成器與單判別器進行對抗,設計了控制各生成
    發(fā)表于 04-23 11:01 ?21次下載
    <b class='flag-5'>一種</b>基于改進的DCGAN<b class='flag-5'>生成</b>SAR<b class='flag-5'>圖像</b>的方法

    基于生成式對抗網(wǎng)絡的圖像補全方法

    圖像補全是數(shù)字圖像處理領域的重要研究方向,具有廣闊的應用前景。提出了一種基于生成式對抗網(wǎng)絡(GA
    發(fā)表于 05-19 14:38 ?14次下載

    識別「ChatGPT造假」,效果超越OpenAI:北大、華為的AI生成檢測器來了

    解放無數(shù)文書的雙手,它以假亂真的強勁能力也為些不法分子所利用,造成了系列社會問題: ? ? 來自北大、華為的研究者提出了
    的頭像 發(fā)表于 06-06 11:05 ?495次閱讀
    識別「ChatGPT造假」,效果超越<b class='flag-5'>OpenAI</b>:北大、華為的AI<b class='flag-5'>生成</b>檢測器來了

    Adobe提出DMV3D:3D生成只需30秒!讓文本、圖像都動起來的新方法!

    因此,本文研究者的目標是實現(xiàn)快速、逼真和通用的 3D 生成。為此,他們提出了 DMV3D。DMV3D 是一種全新的單階段的全類別擴散
    的頭像 發(fā)表于 01-30 16:20 ?912次閱讀
    Adobe<b class='flag-5'>提出</b>DMV3D:3D<b class='flag-5'>生成</b>只需30秒!讓文本、<b class='flag-5'>圖像</b>都動起來的新方法!
    主站蜘蛛池模板: 手机毛片在线观看 | 好大好硬好爽好深好硬视频 | 国产精品无码视频一区二区 | 欧美精品久久久久久久久大尺度 | 一道精品视频一区二区 | 国产手机在线精品 | 97国内精品久久久久久久影视 | 亚洲伊人久久一次 | 成人小视频在线观看免费 | 亚洲精品久久久久久偷窥 | 国产免费高清mv视频在线观看 | 久草国产在线播放 | RAPPER性骚扰大开黄腔 | 人人艹人人 | 亚洲爆乳少妇精品无码专区 | 久久精品一本到99热 | 久久精品亚洲精品国产欧美 | 青青伊人影院 | 免费看黄的片多多APP下载 | 精品国产乱码久久久久乱码 | 天天插天天射天天干 | 久久99re8热在线播放 | 一区三区三区不卡 | 美女在线永久免费网站 | 99久久精品国产自免费 | 久久99亚洲AV无码四区碰碰 | 秋霞电影网午夜鲁丝片 | 亚洲精品成人在线 | 国产极品白嫩超清在线观看 | 男人吃奶摸下挵进去啪啪 | 天堂so导航| 曰本aaaaa毛片午夜网站 | 最近中文字幕高清中文字幕MV | 日本邪恶少女漫画大全 | 学生妹被爆插到高潮无遮挡 | 777米奇色狠狠俺去啦 | 国产欧美一区二区精品性色tv | 一个人在线观看免费高清视频 | 视频在线观看高清免费看 | 日本韩国欧美一区 | 亚洲 日本 欧美 中文字幕 |