色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SVM與神經(jīng)網(wǎng)絡(luò)結(jié)合會(huì)發(fā)生什么?

中科院長(zhǎng)春光機(jī)所 ? 來(lái)源:搜狐網(wǎng) ? 作者:神經(jīng)網(wǎng)絡(luò) ? 2020-09-14 09:22 ? 次閱讀

SVM 是機(jī)器學(xué)習(xí)領(lǐng)域的經(jīng)典算法之一。如果將 SVM推廣到神經(jīng)網(wǎng)絡(luò),會(huì)發(fā)生什么呢?

支持向量機(jī)(Support Vector Machine,SVM)是大多數(shù) AI 從業(yè)者比較熟悉的概念。它是一種在分類(lèi)與回歸分析中分析數(shù)據(jù)的監(jiān)督式學(xué)習(xí)模型與相關(guān)的學(xué)習(xí)算法。給定一組訓(xùn)練實(shí)例,每個(gè)訓(xùn)練實(shí)例被標(biāo)記為屬于兩個(gè)類(lèi)別中的一個(gè)或另一個(gè),SVM 訓(xùn)練算法創(chuàng)建一個(gè)將新的實(shí)例分配給兩個(gè)類(lèi)別之一的模型,使其成為非概率二元線(xiàn)性分類(lèi)器。SVM 模型將實(shí)例表示為空間中的點(diǎn),這樣映射就使得單獨(dú)類(lèi)別的實(shí)例被盡可能寬的明顯的間隔分開(kāi)。然后,將新的實(shí)例映射到同一空間,并基于它們落在間隔的哪一側(cè)來(lái)預(yù)測(cè)所屬類(lèi)別。 除了進(jìn)行線(xiàn)性分類(lèi)之外,SVM 還可以使用所謂的核技巧有效地進(jìn)行非線(xiàn)性分類(lèi),將其輸入隱式映射到高維特征空間中。 本文將介紹一篇來(lái)自蒙特利爾大學(xué)的論文《SVM、Wasserstein 距離、梯度懲罰 GAN 之間的聯(lián)系》。在這篇論文中,研究者闡述了如何從同一框架中得到 SVM 和梯度懲罰 GAN。 據(jù)論文一作介紹,這項(xiàng)研究的靈感來(lái)自她的博士資格考試。在準(zhǔn)備過(guò)程中,她學(xué)習(xí)了 SVM,并思考了這個(gè)問(wèn)題:「如果將 SVM 推廣到神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生什么?」順著這個(gè)思路,研究者發(fā)現(xiàn)了 SVM、GAN、Wasserstein 距離之間的關(guān)系。

該研究將最大間隔分類(lèi)器(MMC)的概念擴(kuò)展到任意范數(shù)和非線(xiàn)性函數(shù)。支持向量機(jī)是 MMC 的一個(gè)特例。研究者發(fā)現(xiàn),MMC 可以形式化為積分概率度量(Integral Probability Metrics,IPM)或具備某種形式梯度范數(shù)懲罰的分類(lèi)器。這表明它與梯度懲罰 GAN 有直接關(guān)聯(lián)。 該研究表明,Wasserstein GAN、標(biāo)準(zhǔn) GAN、最小二乘 GAN 和具備梯度懲罰的 Hinge GAN 中的判別器都是 MMC,并解釋了 GAN 中最大化間隔的作用。研究者假設(shè) L^∞ 范數(shù)懲罰和 Hinge 損失生成的 GAN 優(yōu)于 L^2 范數(shù)懲罰生成的 GAN,并通過(guò)實(shí)驗(yàn)進(jìn)行了驗(yàn)證。此外,該研究還導(dǎo)出了 Relativistic paired (Rp) 和 average (Ra) GAN 的間隔。 這篇論文共包含幾部分:在第二章中,研究者回顧了 SVM 和 GAN;第三章,研究者概述了最大間隔分類(lèi)器(MMC)的概念;第四章,研究者用梯度懲罰解釋了 MMC 和 GAN 之間的聯(lián)系。其中 4.1 提到了強(qiáng)制 1-Lipschitz 等價(jià)于假設(shè)一個(gè)有界梯度,這意味著 Wasserstein 距離可以用 MMC 公式來(lái)近似估算;4.2 描述了在 GAN 中使用 MMC 的好處;4.3 假定 L1 范數(shù)間隔能夠?qū)е赂唪敯粜缘姆诸?lèi)器;4.4 推導(dǎo)了 Relativistic paired GAN 和 Relativistic average GAN 的間隔。最后,第五章提供了實(shí)驗(yàn)結(jié)果以支持文章假設(shè)。 SVM 是 MMC 的一個(gè)特例。MMC 是使間隔最大化的分類(lèi)器 f(間隔指的是決策邊界與數(shù)據(jù)點(diǎn)之間的距離)。決策邊界是指我們無(wú)法分辨出樣本類(lèi)別的區(qū)域(所有 x 使得 f(x)=0)。 Soft-SVM 是一種特殊情況,它可以使最小 L2 范數(shù)間隔最大化。下圖展示了實(shí)際使用中的 Soft-SVM:

在解釋這一結(jié)果之前,我們需要了解一個(gè)關(guān)鍵要素。關(guān)于「間隔」有多種定義: (1)樣本與邊界之間的最小距離; (2)距邊界最近的點(diǎn)與邊界之間的最小距離。 定義(2)更為常用。但是如果使用此定義,那么 SVM 文獻(xiàn)中所謂的「函數(shù)間隔(functional margin)」和「幾何間隔(geometric margin)」就都不能被視為間隔。這可能會(huì)讓人十分困惑。 理解這種差異更好的一種方式是:

將(1)視為「樣本的間隔」;

將(2)視為「數(shù)據(jù)集的間隔」。

但是,為了消除這兩種情況的歧義,本文將前者稱(chēng)為「間隔(margin)」,將后者稱(chēng)為「最小間隔(minimum margin)」。 Hard-SVM(原始形式)解決了最大化最小間隔的問(wèn)題。Soft-SVM 解決了另一個(gè)更簡(jiǎn)單的問(wèn)題——最大化期望 soft-margin(最小化期望 Hinge 損失)。這個(gè)問(wèn)題很容易解決,hinge 損失確保遠(yuǎn)離邊界的樣本不會(huì)對(duì)假重復(fù) Hard-SVM 效果的嘗試產(chǎn)生任何影響。 從這個(gè)角度看,最大化期望間隔(而不是最大化最小間隔)仍會(huì)導(dǎo)致最大間隔分類(lèi)器,但是分類(lèi)器可能會(huì)受到遠(yuǎn)離邊界的點(diǎn)的影響(如果不使用 Hinge 損失的話(huà))。因此,最大化期望間隔意味著最大化任何樣本(即數(shù)據(jù)點(diǎn))與決策邊界之間的平均距離。這些方法就是最大間隔分類(lèi)器(MMC)的示例。 為了盡可能地通用化,該研究設(shè)計(jì)了一個(gè)框架來(lái)導(dǎo)出 MMC 的損失函數(shù)。研究者觀(guān)察到,該框架可以導(dǎo)出帶有梯度懲罰的基于間隔的目標(biāo)函數(shù)(目標(biāo)函數(shù) F 的形式為 F(yf(x)))。這就意味著標(biāo)準(zhǔn) GAN、最小二乘 GAN、WGAN 或 HingeGAN-GP 都是 MMC。所有這些方法(和 WGAN-GP 一樣使用 L2 梯度規(guī)范懲罰時(shí))都能最大化期望 L2 范數(shù)間隔。 研究者還展示了,使用 Lipschitz-1 判別器的大多數(shù) GAN(譜歸一化 HingeGAN、WGAN、WGAN-GP 等)都可被表示為 MMC,因?yàn)榧俣?1-Lipschitz 等效于假定有界梯度(因此可作為一種梯度懲罰形式)。 重要的是,這意味著我們可以將最成功的 GAN(BigGAN、StyleGAN)看作 MMC。假定 Lipschitz-1 判別器一直被看作實(shí)現(xiàn)優(yōu)秀 GAN 的關(guān)鍵因素,但它可能需要一個(gè)能夠最大化間隔的判別器和相對(duì)判別器(Relativistic Discriminator)。該研究基于 MMC 判別器給偽生成樣本帶來(lái)更多梯度信號(hào)的事實(shí),闡述了其優(yōu)點(diǎn)。 在這一點(diǎn)上,讀者可能有疑問(wèn):「是不是某些間距比其它間距更好?是的話(huà),我們能做出更好的 GAN 嗎?」 這兩個(gè)問(wèn)題的答案都是肯定的。最小化 L1 范數(shù)的損失函數(shù)比最小化 L2 范數(shù)的損失函數(shù)對(duì)異常值更具魯棒性。基于這一事實(shí),研究者提出質(zhì)疑:L1 范數(shù)間隔會(huì)帶來(lái)魯棒性更強(qiáng)的分類(lèi)器,生成的 GAN 也可能比 L2 范數(shù)間隔更佳。 重要的是,L1 范數(shù)間隔會(huì)造成 L∞ 梯度范數(shù)懲罰,L2 范數(shù)間隔會(huì)造成 L2 梯度范數(shù)懲罰。該研究進(jìn)行了一些實(shí)驗(yàn),表明 L∞ 梯度范數(shù)懲罰(因使用 L1 間隔產(chǎn)生)得到的 GAN 性能更優(yōu)。 此外,實(shí)驗(yàn)表明, HingeGAN-GP 通常優(yōu)于 WGAN-GP(這是說(shuō)得通的,因?yàn)?hinge 損失對(duì)遠(yuǎn)離邊界的異常值具有魯棒性),并且僅懲罰大于 1 的梯度范數(shù)效果更好(而不是像 WGAN-GP 一樣,使所有的梯度范數(shù)逼近 1)。因此,盡管這是一項(xiàng)理論研究,但研究者發(fā)現(xiàn)了一些對(duì)改進(jìn) GAN 非常有用的想法。 使用該框架,研究者能夠?yàn)?Relativistic paired (Rp) GAN 和 Relativistic average (Ra) GAN 定義決策邊界和間隔。人們常常想知道為什么 RpGAN 的性能不如 RaGAN,在這篇文章中,研究者對(duì)此進(jìn)行了闡述。 使用 L1 范數(shù)間隔的想法只是冰山一角,該框架還能通過(guò)更具魯棒性的間隔,設(shè)計(jì)出更優(yōu)秀的 GAN(從而提供更好的梯度懲罰或「光譜」歸一化技術(shù))。最后,對(duì)于為什么梯度懲罰或 1-Lipschitz 對(duì)不估計(jì) Wasserstein 距離的 GAN 有效,該研究也提供了明確的理論依據(jù),更多細(xì)節(jié)可參考原論文。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4774

    瀏覽量

    100907
  • SVM
    SVM
    +關(guān)注

    關(guān)注

    0

    文章

    154

    瀏覽量

    32503

原文標(biāo)題:當(dāng)支持向量機(jī)遇上神經(jīng)網(wǎng)絡(luò):這項(xiàng)研究揭示了SVM、GAN、Wasserstein距離之間的關(guān)系

文章出處:【微信號(hào):cas-ciomp,微信公眾號(hào):中科院長(zhǎng)春光機(jī)所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

    神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介
    發(fā)表于 08-05 21:01

    神經(jīng)網(wǎng)絡(luò)SVM的模塊

    大家有知道labview中神經(jīng)網(wǎng)絡(luò)SVM的工具包是哪個(gè)嗎?求分享一下,有做這方面的朋友也可以交流一下,大家共同進(jìn)步
    發(fā)表于 10-13 11:41

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹
    發(fā)表于 01-04 13:41

    非局部神經(jīng)網(wǎng)絡(luò),打造未來(lái)神經(jīng)網(wǎng)絡(luò)基本組件

    `將非局部計(jì)算作為獲取長(zhǎng)時(shí)記憶的通用模塊,提高神經(jīng)網(wǎng)絡(luò)性能在深度神經(jīng)網(wǎng)絡(luò)中,獲取長(zhǎng)時(shí)記憶(long-range dependency)至關(guān)重要。對(duì)于序列數(shù)據(jù)(例如語(yǔ)音、語(yǔ)言),遞歸運(yùn)算
    發(fā)表于 11-12 14:52

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    稱(chēng)為BP神經(jīng)網(wǎng)絡(luò)。采用BP神經(jīng)網(wǎng)絡(luò)模型能完成圖像數(shù)據(jù)的壓縮處理。在圖像壓縮中,神經(jīng)網(wǎng)絡(luò)的處理優(yōu)勢(shì)在于:巨量并行性;信息處理和存儲(chǔ)單元結(jié)合在一起;自組織自學(xué)習(xí)功能。與傳統(tǒng)的數(shù)字信號(hào)處理器
    發(fā)表于 08-08 06:11

    什么是LSTM神經(jīng)網(wǎng)絡(luò)

    簡(jiǎn)單理解LSTM神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-28 07:16

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線(xiàn)性表達(dá)能力,可以通過(guò)對(duì)系統(tǒng)性能的學(xué)習(xí)來(lái)實(shí)現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    matlab神經(jīng)網(wǎng)絡(luò)應(yīng)用設(shè)計(jì)

    matlab神經(jīng)網(wǎng)絡(luò)應(yīng)用設(shè)計(jì)詳細(xì)的介紹了matlab與神經(jīng)網(wǎng)絡(luò)結(jié)合
    發(fā)表于 02-23 10:47 ?0次下載

    什么是模糊神經(jīng)網(wǎng)絡(luò)_模糊神經(jīng)網(wǎng)絡(luò)原理詳解

    模糊神經(jīng)網(wǎng)絡(luò)就是模糊理論同神經(jīng)網(wǎng)絡(luò)結(jié)合的產(chǎn)物,它匯集了神經(jīng)網(wǎng)絡(luò)與模糊理論的優(yōu)點(diǎn),集學(xué)習(xí)、聯(lián)想、識(shí)別、信息處理于一體。
    發(fā)表于 12-29 14:40 ?4.9w次閱讀
    什么是模糊<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>_模糊<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理詳解

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域。然而,隨著時(shí)間的推移,數(shù)據(jù)分布可能會(huì)發(fā)生
    的頭像 發(fā)表于 07-11 10:25 ?477次閱讀
    主站蜘蛛池模板: 久久99精品视频| 啦啦啦WWW在线观看免费高清版| xxx性欧美在线观看| aa级毛片毛片免费观看久| www红色一片| 高hnp肉文| 国产在线精品视频免费观看| 久久99精品AV99果冻| 浪潮色诱AV久久久久久久| 欧美高清一区二区三| 色大姐综合网| 亚洲女初尝黑人巨磁链接| 在线伦理电影网| freehd另类xxxx喷水| 国产高清美女一级毛片久久| 国产最新地址| 毛片免费在线播放| 日韩在线 无码 精品| 亚洲国产精麻豆| 18 japanese宾馆直播| 成人亚洲视频| 韩国演艺圈悲惨在线| 美女大BXXXXN内射| 神马老子影院午夜伦| 一个人高清在线观看日本免费 | 好男人免费观看在线高清WWW| 口工漫画r18全彩啪啪| 欧美亚洲国产激情一区二区| 性xxx免费| 97视频在线观看免费视频| 国产成人在线播放| 久久怡红院国产精品| 日韩免费一区| 诱人的女邻居9中文观看| 吃奶吸咪咪动态图| 九九热视频在线观看| 日操夜操天天操| 渔夫床满艳史bd高清在线直播| 成人永久免费视频| 久久精品无码成人国产毛| 色多多旧版污污破解版|