色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用Pytorch實現頻譜歸一化生成對抗網絡(SN-GAN)

冬至子 ? 來源:思否AI ? 作者:思否AI ? 2023-10-18 10:59 ? 次閱讀

自從擴散模型發布以來,GAN的關注度和論文是越來越少了,但是它們里面的一些思路還是值得我們了解和學習。所以本文我們來使用Pytorch 來實現SN-GAN

譜歸一化生成對抗網絡是一種生成對抗網絡,它使用譜歸一化技術來穩定鑒別器的訓練。譜歸一化是一種權值歸一化技術,它約束了鑒別器中每一層的譜范數。這有助于防止鑒別器變得過于強大,從而導致不穩定和糟糕的結果。

SN-GAN由Miyato等人(2018)在論文“生成對抗網絡的譜歸一化”中提出,作者證明了sn - gan在各種圖像生成任務上比其他gan具有更好的性能。

SN-GAN的訓練方式與其他gan相同。生成器網絡學習生成與真實圖像無法區分的圖像,而鑒別器網絡學習區分真實圖像和生成圖像。這兩個網絡以競爭的方式進行訓練,它們最終達到一個點,即生成器能夠產生逼真的圖像,從而欺騙鑒別器。

以下是SN-GAN相對于其他gan的優勢總結:

  • 更穩定,更容易訓練
  • 可以生成更高質量的圖像
  • 更通用,可以用來生成更廣泛的內容。

模式崩潰

模式崩潰是生成對抗網絡(GANs)訓練中常見的問題。當GAN的生成器網絡無法產生多樣化的輸出,而是陷入特定的模式時,就會發生模式崩潰。這會導致生成的輸出出現重復,缺乏多樣性和細節,有時甚至與訓練數據完全無關。

GAN中發生模式崩潰有幾個原因。一個原因是生成器網絡可能對訓練數據過擬合。如果訓練數據不夠多樣化,或者生成器網絡太復雜,就會發生這種情況。另一個原因是生成器網絡可能陷入損失函數的局部最小值。如果學習率太高,或者損失函數定義不明確,就會發生這種情況。

以前有許多技術可以用來防止模式崩潰。比如使用更多樣化的訓練數據集?;蛘呤褂谜齽t化技術,例如dropout或批處理歸一化,使用合適的學習率和損失函數也很重要。

Wassersteian損失

Wasserstein損失,也稱為Earth Mover’s Distance(EMD)或Wasserstein GAN (WGAN)損失,是一種用于生成對抗網絡(GAN)的損失函數。引入它是為了解決與傳統GAN損失函數相關的一些問題,例如Jensen-Shannon散度和Kullback-Leibler散度。

Wasserstein損失測量真實數據和生成數據的概率分布之間的差異,同時確保它具有一定的數學性質。他的思想是最小化這兩個分布之間的Wassersteian距離(也稱為地球移動者距離)。Wasserstein距離可以被認為是將一個分布轉換為另一個分布所需的最小“成本”,其中“成本”被定義為將概率質量從一個位置移動到另一個位置所需的“工作量”。

Wasserstein損失的數學定義如下:

對于生成器G和鑒別器D, Wasserstein損失(Wasserstein距離)可以表示為:

Jensen-Shannon散度(JSD): Jensen-Shannon散度是一種對稱度量,用于量化兩個概率分布之間的差異

對于概率分布P和Q, JSD定義如下:

JSD(P∥Q)=1/2(KL(P∥M)+KL(Q∥M))

M為平均分布,KL為Kullback-Leibler散度,P∥Q為分布P與分布Q之間的JSD。

JSD總是非負的,在0和1之間有界,并且對稱(JSD(P|Q) = JSD(Q|P))。它可以被解釋為KL散度的“平滑”版本。

Kullback-Leibler散度(KL散度):Kullback-Leibler散度,通常被稱為KL散度或相對熵,通過量化“額外信息”來測量兩個概率分布之間的差異,這些“額外信息”需要使用另一個分布作為參考來編碼一個分布。

對于兩個概率分布P和Q,從Q到P的KL散度定義為:KL(P∥Q)=∑x P(x)log(Q(x)/P(x))。KL散度是非負非對稱的,即KL(P∥Q)≠KL(Q∥P)。當且僅當P和Q相等時它為零。KL散度是無界的,可以用來衡量分布之間的不相似性。

1-Lipschitz Contiunity

1- lipschitz函數是斜率的絕對值以1為界的函數。這意味著對于任意兩個輸入x和y,函數輸出之間的差不超過輸入之間的差。

數學上函數f是1-Lipschitz,如果對于f定義域內的所有x和y,以下不等式成立:

|f(x) — f(y)| <= |x — y|

在生成對抗網絡(GANs)中強制Lipschitz連續性是一種用于穩定訓練和防止與傳統GANs相關的一些問題的技術,例如模式崩潰和訓練不穩定。在GAN中實現Lipschitz連續性的主要方法是通過使用Lipschitz約束或正則化,一種常用的方法是Wasserstein GAN (WGAN)。

在標準gan中,鑒別器(也稱為WGAN中的批評家)被訓練來區分真實和虛假數據。為了加強Lipschitz連續性,WGAN增加了一個約束,即鑒別器函數應該是Lipschitz連續的,這意味著函數的梯度不應該增長得太大。在數學上,它被限制為:

∥∣D(x)?D(y)∣≤K?∥x?y

其中D(x)是評論家對數據點x的輸出,D(y)是y的輸出,K是Lipschitz 常數。

WGAN的權重裁剪:在原始的WGAN中,通過在每個訓練步驟后將鑒別器網絡的權重裁剪到一個小范圍(例如,[-0.01,0.01])來強制執行該約束。權重裁剪確保了鑒別器的梯度保持在一定范圍內,并加強了利普希茨連續性。

WGAN的梯度懲罰: WGAN的一種變體,稱為WGAN-GP,它使用梯度懲罰而不是權值裁剪來強制Lipschitz約束。WGAN-GP基于鑒別器的輸出相對于真實和虛假數據之間的隨機點的梯度,在損失函數中添加了一個懲罰項。這種懲罰鼓勵了Lipschitz約束,而不需要權重裁剪。

譜范數

從符號上看矩陣

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3663

    瀏覽量

    135028
  • 生成器
    +關注

    關注

    7

    文章

    319

    瀏覽量

    21075
  • 頻譜儀
    +關注

    關注

    7

    文章

    342

    瀏覽量

    36152
  • pytorch
    +關注

    關注

    2

    文章

    808

    瀏覽量

    13321
收藏 人收藏

    評論

    相關推薦

    #新年新氣象,大家新年快樂!#AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內容。它利用人工智能技術自動生成或輔助生成文本、圖像、音頻、視頻等內容。 AIGC的核心技術包括自然語言處理(NLP)、計算機視覺、生成對抗
    發表于 01-13 10:46

    AIGC入門及鴻蒙入門

    Generated Content,即人工智能生成內容。它利用人工智能技術自動生成或輔助生成文本、圖像、音頻、視頻等內容。 AIGC的核心技術包括自然語言處理(NLP)、計算機視覺、生成對抗
    發表于 01-13 10:32

    利用Arm Kleidi技術實現PyTorch優化

    PyTorch個廣泛應用的開源機器學習 (ML) 庫。近年來,Arm 與合作伙伴通力協作,持續改進 PyTorch 的推理性能。本文將詳細介紹如何利用 Arm Kleidi 技術提升 Arm
    的頭像 發表于 12-23 09:19 ?265次閱讀
    利用Arm Kleidi技術<b class='flag-5'>實現</b><b class='flag-5'>PyTorch</b>優化

    大語言模型優化生成管理方法

    大語言模型的優化生成管理是個系統工程,涉及模型架構、數據處理、內容控制、實時響應以及倫理監管等多個層面。以下,是對大語言模型優化生成管理方法的梳理,由AI部落小編整理。
    的頭像 發表于 12-02 10:45 ?119次閱讀

    pytorch怎么在pycharm中運行

    部分:PyTorch和PyCharm的安裝 1.1 安裝PyTorch PyTorch個開源的機器學習庫,用于構建和訓練神經
    的頭像 發表于 08-01 16:22 ?1539次閱讀

    PyTorch如何實現多層全連接神經網絡

    PyTorch實現多層全連接神經網絡(也稱為密集連接神經網絡或DNN)是個相對直接的過程,涉及定義
    的頭像 發表于 07-11 16:07 ?1290次閱讀

    如何在PyTorch實現LeNet-5網絡

    PyTorch實現LeNet-5網絡個涉及深度學習基礎知識、PyTorch框架使用以及網絡
    的頭像 發表于 07-11 10:58 ?850次閱讀

    pytorch中有神經網絡模型嗎

    當然,PyTorch個廣泛使用的深度學習框架,它提供了許多預訓練的神經網絡模型。 PyTorch中的神經網絡模型 1. 引言 深度學習是
    的頭像 發表于 07-11 09:59 ?767次閱讀

    PyTorch神經網絡模型構建過程

    PyTorch,作為個廣泛使用的開源深度學習庫,提供了豐富的工具和模塊,幫助開發者構建、訓練和部署神經網絡模型。在神經網絡模型中,輸出層是尤為關鍵的部分,它負責將模型的預測結果以合適
    的頭像 發表于 07-10 14:57 ?535次閱讀

    PyTorch的介紹與使用案例

    學習領域的個重要工具。PyTorch底層由C++實現,提供了豐富的API接口,使得開發者能夠高效地構建和訓練神經網絡模型。PyTorch
    的頭像 發表于 07-10 14:19 ?447次閱讀

    生成對抗網絡(GANs)的原理與應用案例

    生成對抗網絡(Generative Adversarial Networks,GANs)是種由蒙特利爾大學的Ian Goodfellow等人在2014年提出的深度學習算法。GANs通過構建兩個
    的頭像 發表于 07-09 11:34 ?1235次閱讀

    如何使用PyTorch建立網絡模型

    PyTorch個基于Python的開源機器學習庫,因其易用性、靈活性和強大的動態圖特性,在深度學習領域得到了廣泛應用。本文將從PyTorch的基本概念、網絡模型構建、優化方法、實際
    的頭像 發表于 07-02 14:08 ?452次閱讀

    使用PyTorch構建神經網絡

    PyTorch個流行的深度學習框架,它以其簡潔的API和強大的靈活性在學術界和工業界得到了廣泛應用。在本文中,我們將深入探討如何使用PyTorch構建神經網絡,包括從基礎概念到高級
    的頭像 發表于 07-02 11:31 ?750次閱讀

    神經網絡架構有哪些

    、語音識別、自然語言處理等多個領域。本文將對幾種主要的神經網絡架構進行詳細介紹,包括前饋神經網絡、循環神經網絡、卷積神經網絡、生成對抗
    的頭像 發表于 07-01 14:16 ?827次閱讀

    深度學習生成對抗網絡GAN)全解析

    GANs真正的能力來源于它們遵循的對抗訓練模式。生成器的權重是基于判別器的損失所學習到的。因此,生成器被它生成的圖像所推動著進行訓練,很難知道生成
    發表于 03-29 14:42 ?4710次閱讀
    深度學習<b class='flag-5'>生成對抗</b><b class='flag-5'>網絡</b>(<b class='flag-5'>GAN</b>)全解析
    主站蜘蛛池模板: 某上海少妇3P黑人完整版BD| 厕所xxxxx| 亚洲欧洲日本无在线码播放| 最好看中文字幕国语| 国产成人h在线视频| 久久精品热只有精品| 少妇高潮久久久久7777| 中文国产在线观看| 国产免费高清mv视频在线观看| 棉袜足j吐奶视频| 亚洲中文日韩日本在线视频| 欧美四虎精品二区免费| 一边吃奶一边添P好爽故事| 亚洲AV天堂无码麻豆电影| 一级做a爰片久久毛片苍井优| 国产睡熟迷奷系列网站| 亚洲精品久久久久69影院| 久久精品视频uu| 99re久久超碰视频精品| 奇米狠狠干| 搞av.com| 亚洲免费视频网站| 久久免费精品视频| 91女神娇喘| 日本免费一区二区三区最新vr | 伊人久久大香线蕉综合bd高清| 精品视频免费在线观看| 96精品视频| 色-情-伦-理一区二区三区| 国产免费人视频在线观看免费| 亚洲深夜在线| 欧美极品尿交| 国产精品永久免费视频| 野花高清在线观看免费3中文| 美女漏bb| 俄罗斯bbbbbbbbb大片| 亚洲精品无码AAAAAA片| 嫩草影院一区| 国产在线亚洲精品观| 97亚洲狠狠色综合久久久久| 婷婷精品国产亚洲AV在线观看|