色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

BigBiGAN問世,“GAN父”都說酷的無監督表示學習模型有多優秀?

WpOh_rgznai100 ? 來源:YXQ ? 2019-07-11 15:48 ? 次閱讀

眾所周知,對抗訓練生成模型(GAN)在圖像生成領域獲得了不凡的效果。盡管基于GAN的無監督學習方法取得了初步成果,但很快被自監督學習方法所取代。

DeepMind近日發布了一篇論文《Large Scale Adversarial Representation Learning》(大規模對抗性表示學習),提出了無監督表示學習新模型BigBiGAN。

致力于將圖像生成質量的提升轉化為表征學習性能的提高,基于BigGAN模型的基礎上提出了BigBiGAN,通過添加編碼器和修改鑒別器將其擴展到圖像學習。作者評估了BigBiGAN模型的表征學習能力和圖像生成功能,證明在ImageNet上的無監督表征學習以及無條件圖像生成,該模型達到了目前的最佳性能。

論文發布后,諸多AI大牛轉發并給出了評價。

“GAN之父”Ian Goodfellow表示這很酷,在他讀博士期間,就把樣本生成雙產物的表示學習感興趣,而不是樣本生成本身。

特斯拉AI負責人Andrej Karpathy則表示,自我監督的學習是一個非常豐富的領域(但需要比ImageNet提供更高的密度和結構),這將避免大規模數據集的當前必要性(或在RL中推出)。

1、介紹

近年來,圖像生成模型快速發展。雖然這些模型以前僅限于具有單模或多模的結構域,生成的圖像結構簡單,分辨率低,但隨著模型和硬件的發展,已有生成復雜、多模態,高分辨率圖像的能力。

圖1 BigBiGAN框架框圖

聯合鑒別器,輸入是數據潛在對,

,從數據分布Px和編碼器輸出中采樣,或

從生成器輸出和潛在分布Pz中采樣。損失包括一元數據項和一元潛在項,以及將數據和潛在分布聯系起來的聯合項

通過BiGAN或ALI框架學習的編碼器,是ImageNet上用于下游任務的可視化表示學習的有效手段。然而,該方法使用了DCGAN樣式生成器,無法在該數據集上生成高質量圖像,因此編碼器可以建模的語義非常有限。作者基于該方法,使用BigGAN作為生成器,能夠捕獲ImageNet圖像中存在的多模態和出現的大部分結構。總體而言,本文的貢獻如下:

(1)在ImageNet上,BigBiGAN(帶BigGAN的BiGAN生成器)匹配無監督表征學習的最新技術水平

(2)為BigBiGAN提出了一個穩定版本的聯合鑒別器

(3)對模型設計選擇進行了全面的實證分析和消融實驗

(4)表征學習目標還有助于無條件圖像生成,并展示無條件ImageNet生成的最新結果

2、BigBiGAN

BiGAN、ALI方法作為GAN框架的擴展,能夠學習可以用作推理模型或特征表示的編碼器。給定數據項x的分布Px(例如,圖像)和潛在項z的分布Pz(通常是像各向同性高斯N(0;I)的簡單連續分布),生成器模擬條件概率分布

,給定潛在項z后數據項x的概率值,如標準GAN生成器。編碼器對逆條件分布

進行建模,預測給定數據項x的情況下,潛在項z的概率值。

除了添加之外,BiGAN框架中對GAN的另一種修改是聯合鑒別器 - 潛在項對(x,z)(而不僅僅是標準GAN中的數據項x),并且學習區分數據分布和編碼器對,生成器和潛在分布。具體地說,它的輸入對是

的目標是“欺騙”鑒別器,使得被采樣的兩個聯合概率分布難以區分。GAN框架的目標,定義如下:

在這個目標下,在最優最小化聯合分布之間的Jensen-Shannon散度,因此在全局最優時,兩個聯合分布

匹配。此外,在是確定性函數的情況下(即,學習條件分布

是Dirac δ函數),這兩個函數是全局最優的逆:例如

,最佳聯合鑒別器有效地對x和z施加重建成本。

具體地,鑒別器損失值

其中

優化參數

3、評估

作者在未標記的ImageNet上訓練BigBiGAN,固定其表征學習結果,然后在其輸出上訓練線性分類器,使用所有訓練集標簽進行全面監督學習。 作者還測量圖像生成性能,其中

IS)和

FID)作為標準指標。

3.1 消融

作者先評估了多種模型,見表1。作者使用不同的種子對每個變體進行三次運行并記錄每個度量的平均值和標準差。

潛在分布隨機值

,其中在給定和線性輸出的情況下,預測

一元損失:

評估刪除損失函數的一元項影響。只有z一元項和沒有一元項的IS和FID性能要比只有x一元項和兩者都有的性能差,結果表明x一元項對生成性能有很大的正面影響。

生成器容量:

為了證明生成器在表征學習中的重要性,作者改變生成器的容量觀察對結果的影響。實驗結果表明,好的圖像生成器模型能提高表征學習能力。

帶有不同分辨率的的高分辨率

使用更高的分辨率,盡管的分辨率相同,但是生成結果顯著改善(尤其是通過FID)。

結構:

使用不同結構的評估性能,結果表明網絡寬度增加,性能會得到提升

解耦優化:

優化器與的優化器分離,并發現簡單地使用10倍的E學習速率可以顯著加速訓練并改善最終表征學習結果。

3.2與已有方法比較

表征學習

表1:BigBiGAN變體的結果

在生成圖像的IS和FID中,以及ImageNet top-1分類準確率,根據從訓練集中隨機抽樣的10K圖像的分割計算,稱為Train分裂。每行中基本設置的更改用藍色突出顯示。具有誤差范圍的結果(寫為“μ±σ”)是具有不同隨機種子的三次運行的平均值和標準偏差。

表2:使用監督邏輯回歸分類器對官方ImageNet驗證集上的BigBiGAN模型與最近競爭方法的比較

基于10K訓練集圖像的trainval子集的最高精度,選擇BigBiGAN結果并提前停止。ResNet-50結果對應于表1中的行ResNet(“ELR”),RevNet-50×4對應于RevNet×4(“ELR”)

表3:無監督(無條件)生成的BigBiGAN與已有的無監督BigGAN的比較結果

作者將“偽標簽”方法指定為SL(單標簽)或聚類。為了進行比較,訓練BigBiGAN的步數(500K)與基于BigGAN的方法相同,但也可以在最后一行中對1M步驟進行額外訓練,并觀察其變化。上述所有結果均包括中值m以及三次運行的平均μ和標準偏差σ,表示為“m(μ±σ)”。BigBiGAN的結果由最佳FID與Train的停止決定的。

無監督圖像生成

圖2:從無監督的BigBiGAN模型中選擇的重建

上圖2中第一行表示真實數據x~Px;第二行表示由

3.3 重建

BiGAN E和G通過計算編碼器預測的潛在表示E(x),然后將預測的潛在表示傳回生成器,得到重建的G(E(x)),從而重構數據實例x。我們在圖2中展示了BigBiGAN重構。這些重構遠非有像素級的完美度,部分原因可能是目標并沒有明確強制執行重構成本,甚至在訓練時也沒有計算重構。然而,它們可能為編碼器學習建模的特性提供一些直觀的認識。例如,當輸入圖像包含一條狗、一個人或一種食物時,重建通常是相同“類別”的不同實例,具有相似的姿勢、位置和紋理。這些重構傾向于保留輸入的高級語義,而不是低級細節,這表明BigBiGAN訓練鼓勵編碼器對前者建模,而不是后者。

4、相關研究

基于自我監督圖像中的無監督表示學習的許多方法被證明是非常成功的。自我監督通常涉及從以某種方式設計成類似于監督學習的任務中學習,但是其中“標簽”可以自動地從數據本身創建而無需人工操作。早期的例子是相對位置預測,其中模型在輸入的圖像塊對上進行訓練并預測它們的相對位置。

對比預測編碼(CPC)是最近的相關方法,其中,給定圖像補丁,模型預測哪些補丁出現在其他圖像位置中。其他方法包括著色、運動分割、旋轉預測和樣本匹配。

對這些方法進行了嚴格的實證比較。相對于大多數自我監督的方法,BigBiGAN和基于生成模型的其他方法的關鍵優勢是它們的輸入可能是全分辨率圖像或其他信號,不需要裁剪或修改所需的數據。這意味著結果表示通常可以直接應用于下游任務中的完整數據,而不會發生域移位(domain shift)。

還提出了許多相關的自動編碼器和GAN變體。關聯壓縮網絡(ACN)學會通過調節其他先前在代碼空間中相似的傳輸數據的數據來壓縮數據集級別,從而產生可以“模糊”語義相似樣本的模型,類似于BigBiGAN重建。VQ-VAE 將離散(矢量量化)編碼器與自回歸解碼器配對,以產生具有高壓縮因子的忠實重建,并在強化學習設置中展示表示學習結果。在對抗性空間中,對抗性自動編碼器提出了一種自動編碼器式編碼器 - 解碼器對,用像素級重建成本訓練,用鑒別器代替VAE中使用的先驗的KL-發散正則化。

在另一個提出的VAE-GAN混合中,在大多數VAE中使用的像素空間重建誤差被替換為距GAN鑒別器的中間層的特征空間距離。AGE和α-GAN等其他混合方法增加了編碼器來穩定GAN訓練。這些方法與BiGAN框架間的一個區別是,BiGAN不會以明確的重建成本訓練編碼器,雖然可以證明BiGAN隱含地使重建成本最小化,但定性重建結果表明這種重建成本具有不同的風格,強調了像素級細節上的高級語義。

5.探討

我們已經證明,BigBiGAN是一種純粹基于生成模型的無監督學習方法,它在ImageNet上實現了圖像表示學習的最好的結果。我們的消融實驗進一步證實強大的生成模型可以有利于表征學習,反過來,學習推理模型可以改善大規模的生成模型。在未來,我們希望表示學習可以繼續受益于生成模型和推理模型的進一步發展,同時擴展到更大的圖像數據庫。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • GaN
    GaN
    +關注

    關注

    19

    文章

    1936

    瀏覽量

    73526
  • 無監督學習
    +關注

    關注

    1

    文章

    16

    瀏覽量

    2755

原文標題:BigBiGAN問世,“GAN父”都說酷的無監督表示學習模型有多優秀?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    時空引導下的時間序列自監督學習框架

    【導讀】最近,香港科技大學、上海AI Lab等多個組織聯合發布了一篇時間序列監督預訓練的文章,相比原來的TS2Vec等時間序列表示學習工作,核心在于提出了將空間信息融入到預訓練階段,
    的頭像 發表于 11-15 11:41 ?266次閱讀
    時空引導下的時間序列自<b class='flag-5'>監督學習</b>框架

    java子類可以繼承類的什么

    Java是一種面向對象的編程語言,它支持繼承的概念。繼承是面向對象編程的三大特性之一,它允許一個類(稱為子類或派生類)繼承另一個類(稱為類或基類)的屬性和方法。在Java中,子類可以繼承
    的頭像 發表于 08-20 11:02 ?1232次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數據作為訓練材料。這些數據集不僅包括語法結構的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監督學習模型采用自監督學習策略,在大量
    發表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節最后總結了機器學習的分類:監督學習監督學習、半監督學習、自
    發表于 07-25 14:33

    神經網絡如何用監督算法訓練

    神經網絡作為深度學習的重要組成部分,其訓練方式多樣,其中監督學習是一種重要的訓練策略。監督學習旨在從未標記的數據中發現數據內在的結構、模
    的頭像 發表于 07-09 18:06 ?806次閱讀

    深度學習中的監督學習方法綜述

    深度學習作為機器學習領域的一個重要分支,近年來在多個領域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領域。然而,深度學習模型的強大性能往往依賴于大量
    的頭像 發表于 07-09 10:50 ?760次閱讀

    基于FPGA的類腦計算平臺 —PYNQ 集群的監督圖像識別類腦計算系統

    STDP 監督學習算法,可運用于圖像的 監督分類。 從平臺設計角度: (1)本設計搭建的基于 PYNQ 集群的通用低功耗的大規模類腦計算平臺,搭載 PYNN,NEST 等
    發表于 06-25 18:35

    大語言模型:原理與工程時間+小白初識大語言模型

    開拓深度學習的思路。對于新涌現的大語言模型的能力,主要是表現在學習能力的提升、語言理解和生成能力、創新和探索的能力。 基礎技術 詞表示技術 詞表示
    發表于 05-12 23:57

    這個是不是表示沒有仿真模型

    先上圖 這個是不是表示沒有仿真模型啊? 哪個版本ds12c887的仿真模型啊?謝謝!
    發表于 05-12 22:17

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    概率推斷,利用共現矩陣學習每個詞的主題分布,進而將其作為詞的表示向量。在大規模語料庫中進行模型訓練,使語義相似的詞具有相似的主題分布。然而,這類方法存在一個問題,即模型一旦訓練完成,詞
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    Transformer架構,利用自注意力機制對文本進行編碼,通過預訓練、監督微調和強化學習等階段,不斷提升性能,展現出強大的語言理解和生成能力。 大語言模型的涌現能力,是指隨著
    發表于 05-04 23:55

    優秀的人,學習記筆記!文末看海的點評

    放秘籍》-儀表放大器專項的優秀學習筆記,說實話,我看了后感覺非常驚艷,簡約美觀,一目了然,部分筆記截圖如下,作者: 冰朔 咱們看上面的學習筆記,他幾個非常贊的優點: 對于一些概念,沒
    的頭像 發表于 03-22 18:19 ?1188次閱讀
    跟<b class='flag-5'>優秀</b>的人,<b class='flag-5'>學習</b>記筆記!文末<b class='flag-5'>有</b>看海的點評

    名單公布!【書籍評測活動NO.30】大規模語言模型:從理論到實踐

    個文本質量對比模型,用于對監督微調模型對于同一個提示詞給出的多個不同輸出結果進行質量排序。這一階段的難點在于如何限定獎勵模型的應用范圍及如
    發表于 03-11 15:16

    Meta發布新型監督視頻預測模型“V-JEPA”

    Meta,這家社交媒體和科技巨頭,近日宣布推出一種新型的監督視頻預測模型,名為“V-JEPA”。這一模型在視頻處理領域引起了廣泛關注,因為它通過抽象性預測生成視頻中缺失或模糊的部分來
    的頭像 發表于 02-19 11:19 ?1026次閱讀

    2024年AI領域將會有哪些新突破呢?

    傳統的機器學習需要大量的標記數據進行訓練,但自監督學習可以通過監督的方式從大規模未標記的數據中學習到更有用的
    的頭像 發表于 01-24 09:58 ?2022次閱讀
    主站蜘蛛池模板: 久久国语精品| 久久伊人中文字幕有码| 恋夜影院安卓免费列表uc| 亚洲欧美日韩另类精品一区二区三区| 含羞草在线| 中国xxxxxxxxx孕交| 秋霞电影伦网理最新在线看片| 国产99久久九九免费精品无码| 午夜人妻理论片天堂影院| 精品无码三级在线观看视频| 97国产在线观看| 色综合伊人色综合网站下载| 国产在线观看免费观看| 92精品国产成人观看免费| 少妇久久久久久被弄高潮| 精品国产手机视频在在线| hd性欧美俱乐部中文| 亚洲 天堂 国产在线播放| 蜜臀亚洲AV永久无码精品老司机| 纯肉无码AV在线看免费看| 亚洲伊人网站| 日韩亚洲国产中文字幕欧美 | 26uuu老色哥| 兔费看少妇性L交大片免费| 久久人人爽人人片AV人成| 二级毛片在线观看| 中文字幕在线播放视频| 四虎国产精品免费观看视频| 快播电影官方网站| 国产啪视频在线播放观看| 99re5久久热在线| 亚洲国产高清视频在线观看| 欧美xxxx性喷潮| 寂寞骚妇女被后入式抽插| 朝鲜黄色录像| 91天仙tv嫩模福利| 夜夜国产亚洲视频香蕉| 思思久久99热只有频精品66| 女王羞辱丨vk| 久久天堂网| 韩国无遮羞禁动漫在线观看96|