色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深入研究文獻(xiàn)中關(guān)于圖像修復(fù)的第一個生成模型

新機器視覺 ? 來源:AI公園 ? 作者:AI公園 ? 2021-03-20 09:17 ? 次閱讀

導(dǎo)讀

本文給出了圖像恢復(fù)的一般性框架,編解碼器 + GAN,后面的圖像復(fù)原基本都是這個框架。

本文會介紹圖像修復(fù)的目的,它的應(yīng)用,等等。然后,我們將深入研究文獻(xiàn)中關(guān)于圖像修復(fù)的第一個生成模型(即第一個基于GAN的修復(fù)算法,上下文編碼器)。

目標(biāo)

很簡單的!我們想要填補圖像中缺失的部分。如圖1所示。

圖1,中心缺失的圖像(左),復(fù)原后的圖像(右)。

應(yīng)用

移除圖像中不需要的部分(即目標(biāo)移除)

修復(fù)損壞的圖像(可以擴展到修復(fù)電影)

很多其他應(yīng)用!

術(shù)語

給出一個有一些缺失區(qū)域的圖像,我們定義

缺失像素/生成像素/空洞像素:待填充區(qū)域的像素。

有效像素/ground truth像素:和缺失像素含義相反。需要保留這些像素,這些像素可以幫助我們填補缺失的區(qū)域。

傳統(tǒng)方法

給出一個有一些缺失區(qū)域的圖像,最典型的傳統(tǒng)方法填充缺失區(qū)域是復(fù)制粘貼。

主要思想是從圖像本身或一個包含數(shù)百萬張圖像的大數(shù)據(jù)集中尋找最相似的圖像補丁,然后將它們粘貼到缺失的區(qū)域。

然而,搜索算法可能是耗時的,它涉及到手工設(shè)計距離的度量方法。在通用化和效率方面仍有改進(jìn)的空間。

數(shù)據(jù)驅(qū)動的基于深度學(xué)習(xí)的方法

由于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)在圖像處理方面的成功,很多人開始將CNNs應(yīng)用到自己的任務(wù)中。基于數(shù)據(jù)驅(qū)動的深度學(xué)習(xí)方法的強大之處在于,如果我們有足夠的訓(xùn)練數(shù)據(jù),我們就可以解決我們的問題。

如上所述,圖像修復(fù)就是將圖像中缺失的部分補上。這意味著我們想要生成一些不存在或沒有答案的東西。因此,所有基于深度學(xué)習(xí)的修復(fù)算法都使用生成對抗網(wǎng)絡(luò)(GANs)來產(chǎn)生視覺上吸引人的結(jié)果。為什么視覺上吸引人呢?由于沒有模型來回答生成的問題,人們更喜歡有良好視覺質(zhì)量的結(jié)果,這是相當(dāng)主觀的!

對于那些可能不知道GANs的讀者,我推薦你先去了解一下。這里以圖像修復(fù)為例,簡單地說,典型的GAN由一個生成器和一個鑒別器組成。生成器負(fù)責(zé)填補圖像中缺失的部分,鑒別器負(fù)責(zé)區(qū)分已填充圖像和真實圖像。請注意,真實的圖像是處于良好狀態(tài)的圖像(即沒有缺失的部分)。我們將隨機地將填充的圖像或真實的圖像輸入識別器來欺騙它。最終,如果鑒別器不能判斷圖像是被生成器填充的還是真實的圖像,生成器就能以良好的視覺質(zhì)量填充缺失的部分!

第一個基于GAN的修復(fù)方法:上下文編碼器

在對image inpainting做了簡單的介紹之后,我希望你至少知道什么是image inpainting, GANs(一種生成模型)是inpainting領(lǐng)域常用的一種。現(xiàn)在,我們將深入研究本系列的第一篇論文。

Intention

作者想訓(xùn)練一個CNN來預(yù)測圖像中缺失的像素。眾所周知,典型的CNNs(例如LeNet手寫數(shù)字識別和AlexNet圖像分類)包含許多的卷積層來提取特征,從簡單的結(jié)構(gòu)特征到高級的語義特征(即早期層簡單的特征,比如邊緣,角點,到后面的層的更復(fù)雜的特征模式)。對于更復(fù)雜的功能模式,作者想利用學(xué)到的高層語義特征(也稱為隱藏特征)來幫助填充缺失的區(qū)域。

此外,為修復(fù)而學(xué)習(xí)的特征需要對圖像進(jìn)行更深層次的語義理解。因此,學(xué)習(xí)到的特征對于其他任務(wù)也很有用,比如分類、檢測和語義分割。

背景

在此,我想為讀者提供一些背景信息

Autoencoders:這是一種通常用于重建任務(wù)的CNN結(jié)構(gòu)。由于其形狀,也有人稱之為沙漏結(jié)構(gòu)模型。對于這個結(jié)構(gòu),輸出大小與輸入大小相同,我們實際上有兩個部分,一個是編碼器,另一個是解碼器,如下圖2所示。編碼器部分用于特征編碼,針對輸入得到緊湊潛在的特征表示,而解碼器部分則對潛在特征表示進(jìn)行解碼。我們通常把中間層稱為低維的“瓶頸”層,或者簡單地稱之為“瓶頸”,因此整個結(jié)構(gòu)看起來就像一個沙漏。讓我們想象一下,我們將一幅完好無損的圖像輸入到這個自動編碼器中。在這種情況下,我們期望輸出應(yīng)該與輸入完全相同。這意味著一個完美的重建。如果可能的話,“瓶頸”是輸入的一個完美的緊湊潛在特征表示。更具體地說,我們可以使用更少的數(shù)字來表示輸入(即更有效,它與降維技術(shù)有關(guān))。因此,這個“瓶頸”包含了幾乎所有的輸入信息(可能包括高級語義特征),我們可以使用它來重構(gòu)輸入。

圖2,自編碼器的結(jié)構(gòu)圖解

上下文編碼器進(jìn)行圖像生成

圖3,提出的上下文編碼器

圖3顯示了提出的上下文編碼器的概要。首先,輸入的是mask圖像(即有中心缺失的圖像)。輸入編碼器以獲得編碼后的特征。然后,本文的主要貢獻(xiàn)是在編碼特征和解碼特征之間放置通道全連接層,以獲得更好的語義特征(即“瓶頸”)。最后,解碼器利用“瓶頸”特征重建缺失的部分。讓我們來看看他們的網(wǎng)絡(luò)內(nèi)部。

圖4,提出的網(wǎng)絡(luò)的結(jié)構(gòu)細(xì)節(jié)

編碼器

編碼器使用AlexNet結(jié)構(gòu),他們用隨機初始化權(quán)值從頭開始訓(xùn)練他們的網(wǎng)絡(luò)。

與原始的AlexNet架構(gòu)和圖2所示的自動編碼器相比,主要的區(qū)別是中間的通道全連接層。如果網(wǎng)絡(luò)中只有卷積層,則無法利用特征圖上距離很遠(yuǎn)的空間位置的特征。為了解決這個問題,我們可以使用全連接層,即當(dāng)前層的每個神經(jīng)元的值依賴于上一層的所有神經(jīng)元的值。然而,全連接層會引入許多參數(shù),8192x8192=67.1M,這甚至在GPU上也很難訓(xùn)練,作者提出了通道全連接層來解決這個問題。

通道全連接層

實際上,通道全連接層非常簡單。我們只是完全獨立地連接每個通道而不是所有的通道。例如,我們有m個大小為nxn的特征映射。如果使用標(biāo)準(zhǔn)的全連接層,我們會有m2n?個參數(shù),對于通道級的全連接層,我們只有mn?個參數(shù)。因此,我們可以在距離很遠(yuǎn)的空間位置上捕獲特征,而不需要添加那么多額外的參數(shù)。

解碼器

對于解碼器來說,這只是編碼過程的反向。我們可以使用一系列的轉(zhuǎn)置卷積來獲得期望大小的重建圖像。

損失函數(shù)

本文使用的損失函數(shù)由兩項組成。第一項是重建損失(L2損失),它側(cè)重于像素級的重建精度(即PSNR方向的損失),但總是會導(dǎo)致圖像模糊。第二個是對抗損失,它通常用于GANs。它鼓勵真實圖像和填充圖像之間數(shù)據(jù)分布更接近。

對于那些對損失函數(shù)感興趣的讀者,我強烈推薦你們閱讀這篇論文中的方程。在這里,我只是口頭描述每個損失項。

f6324406-88ee-11eb-8b86-12bb97331649.png

重建損失(L2損失),M表示缺失的區(qū)域(1表示缺失區(qū)域,0表示有效像素),F(xiàn)是生成器

L2損失:計算生成的像素與對應(yīng)ground truth像素之間的L2距離(歐幾里得距離)。只考慮圖4中所示的缺失區(qū)域。

f662eec6-88ee-11eb-8b86-12bb97331649.png

對抗損失,D是鑒別器。我們希望訓(xùn)練出一種能夠區(qū)分填充圖像和真實圖像的鑒別器

對抗損失:對抗鑒別器的結(jié)構(gòu)如圖4所示。鑒別器的輸出是一個二進(jìn)制值0或1。如果輸入是真實圖像,則為1,如果輸入是填充圖像,則為0。

f6f51800-88ee-11eb-8b86-12bb97331649.png

聯(lián)合損失,Lambda_rec為0.999,Lambda_adv為0.001

使用隨機梯度下降(SGD),Adam優(yōu)化器交替訓(xùn)練生成器和鑒別器。

實驗結(jié)果

評估使用了兩個數(shù)據(jù)集,即Paris Street View和ImageNet。

作者首先展示了修復(fù)結(jié)果,然后他們還表明,作為預(yù)訓(xùn)練步驟,學(xué)習(xí)到的特征可以遷移到其他任務(wù)中。

語義修復(fù)

圖5,修復(fù)結(jié)果,前3行是ImageNet數(shù)據(jù)集的結(jié)果,下面2行是來自Paris StreetView數(shù)據(jù)集的結(jié)果

圖5顯示了使用建議的上下文編碼器的修復(fù)結(jié)果。

f95796b8-88ee-11eb-8b86-12bb97331649.png

表1,Paris StreetView數(shù)據(jù)集的像素重建損失

作者與傳統(tǒng)的最近鄰修復(fù)算法進(jìn)行了比較。顯然,該方法優(yōu)于最近鄰修復(fù)方法。

圖6,使用不同方法的修復(fù)結(jié)果

圖6顯示了使用各種方法的修復(fù)結(jié)果。我們可以看到L2損失傾向于給出模糊的圖像(第二列)。L2 +對抗性的損失給更清晰的填充圖像。對于NN-Inpainting,他們只是復(fù)制和粘貼最相似的圖像補丁到缺失的區(qū)域。

特征學(xué)習(xí)

圖7,最近鄰的上下文

為了顯示他們學(xué)習(xí)到的特征的有用性,作者嘗試編碼不同的圖像patch,并根據(jù)編碼的特征得到最相似的patch。在圖7中。作者將其與傳統(tǒng)的HOG和典型的AlexNet進(jìn)行了比較。它們實現(xiàn)了與AlexNet類似的表現(xiàn),但AlexNet是在一百萬張標(biāo)有數(shù)據(jù)集的圖像上預(yù)訓(xùn)練的。

f9f5acd6-88ee-11eb-8b86-12bb97331649.png

表2,分類、檢測和語義分割的定量比較。

如表2所示,在ImageNet上預(yù)訓(xùn)練過的模型具有最好的性能,但需要昂貴的標(biāo)簽。在該方法中,上下文是用于訓(xùn)練模型的監(jiān)督。這就是他們所謂的通過修復(fù)圖像來學(xué)習(xí)特征。很明顯,它們學(xué)習(xí)到的特征表示與其他借助輔助監(jiān)督訓(xùn)練的模型相當(dāng),甚至更好。

總結(jié)

所提出的上下文編碼器訓(xùn)練可以在上下文的條件下生成圖像。在語義修復(fù)方面達(dá)到了最先進(jìn)的性能。

學(xué)習(xí)到的特征表示也有助于其他任務(wù),如分類,檢測和語義分割。

要點

我想在這里強調(diào)一些要點。

對于圖像修復(fù),我們必須使用來自有效像素的“提示”來幫助填充缺失的像素。“上下文”一詞是指對整個圖像本身的理解。

本文的主要貢獻(xiàn)是通道全連接層。其實,理解這一層并不難。對我來說,它是Non-Local Neural Networks或Self-Attention的早期版本/簡化版本。主要的一點是,前一層的所有特征位置對當(dāng)前層的每個特征位置都有貢獻(xiàn)。從這個角度來看,我們對整個圖像的語義理解會更加深入。這個概念在后面的文章中被廣泛采用!

所有后來的修復(fù)論文都遵循了GAN-based結(jié)構(gòu)(即編碼器-解碼器結(jié)構(gòu))。人們的目標(biāo)是具有良好視覺質(zhì)量的充滿圖像。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3664

    瀏覽量

    135075
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1089

    瀏覽量

    40540
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3298

    瀏覽量

    49074

原文標(biāo)題:用生成模型來做圖像恢復(fù)的介紹和回顧:上下文編碼器

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    電容器深入研究:電路保護、濾波和能量存儲

    校參加了些課程,并獲得了關(guān)于何時使用電容器以及它們?nèi)绾喂ぷ鞯恼鎸嵤纠碾娐繁Wo到濾波,從能量存儲到傳感,我正在深入研究簡單而復(fù)雜的電容器世界。 這些東西是如何運作的? 事實上,
    的頭像 發(fā)表于 01-25 15:13 ?27次閱讀
    電容器<b class='flag-5'>深入研究</b>:電路保護、濾波和能量存儲

    借助谷歌Gemini和Imagen模型生成高質(zhì)量圖像

    以獲得卓越的視覺效果。這個過程并不止于此;圖像生成,Imagen 2 可以進(jìn)步優(yōu)化以滿足特定需求,從而創(chuàng)建
    的頭像 發(fā)表于 01-03 10:38 ?385次閱讀
    借助谷歌Gemini和Imagen<b class='flag-5'>模型</b><b class='flag-5'>生成</b>高質(zhì)量<b class='flag-5'>圖像</b>

    LMK1C1104第一個cycle在CLKOUT丟失,為什么?

    LMK1C1104: CLKIN的第一個cycle在CLKOUT丟失,詳情請參照關(guān)聯(lián)問題
    發(fā)表于 11-11 07:12

    AI大模型的最新研究進(jìn)展

    AI大模型的最新研究進(jìn)展體現(xiàn)在多個方面,以下是對其最新進(jìn)展的介紹: 、技術(shù)創(chuàng)新與突破 生成式AI技術(shù)的爆發(fā) : 生成式AI技術(shù)正在迅速發(fā)展
    的頭像 發(fā)表于 10-23 15:19 ?552次閱讀

    AI大模型圖像識別的優(yōu)勢

    AI大模型圖像識別展現(xiàn)出了顯著的優(yōu)勢,這些優(yōu)勢主要源于其強大的計算能力、深度學(xué)習(xí)算法以及大規(guī)模的數(shù)據(jù)處理能力。以下是對AI大模型圖像
    的頭像 發(fā)表于 10-23 15:01 ?908次閱讀

    Meta發(fā)布Imagine Yourself AI模型,重塑個性化圖像生成未來

    Meta公司近日在人工智能領(lǐng)域邁出了重要步,隆重推出了其創(chuàng)新之作——“Imagine Yourself”AI模型,這突破性技術(shù)為個性化圖像生成
    的頭像 發(fā)表于 08-26 10:59 ?603次閱讀

    Transformer模型在語音識別和語音生成的應(yīng)用優(yōu)勢

    自然語言處理、語音識別、語音生成等多個領(lǐng)域展現(xiàn)出強大的潛力和廣泛的應(yīng)用前景。本文將從Transformer模型的基本原理出發(fā),深入探討其在語音識別和語音生成
    的頭像 發(fā)表于 07-03 18:24 ?1267次閱讀

    倫敦商學(xué)院深入研究中國神州數(shù)碼戰(zhàn)略轉(zhuǎn)型

    China)數(shù)字化轉(zhuǎn)型歷程的深入研究為基礎(chǔ),共同撰寫了案例研究「神州數(shù)碼的轉(zhuǎn)型:駕馭數(shù)據(jù)、云和人工智能的潛力(The Transformation of Digital China
    的頭像 發(fā)表于 07-02 11:25 ?543次閱讀
    倫敦商學(xué)院<b class='flag-5'>深入研究</b>中國神州數(shù)碼戰(zhàn)略轉(zhuǎn)型

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    的全面認(rèn)識,還提供了將這些模型應(yīng)用于實際問題的實用指導(dǎo)。對于希望在人工智能領(lǐng)域深入研究的讀者來說,這是本不可多得的參考書籍。
    發(fā)表于 04-30 15:35

    基于TOF深度相機的圖像處理專利獲授權(quán)

    該專利主要涉及圖像處理技術(shù)領(lǐng)域,特別是針對基于TOF深度相機的圖像處理方法和存儲媒介進(jìn)行了深入研究。其核心內(nèi)容包括:首先,采集每個像素的初始實部數(shù)據(jù)與初始虛部數(shù)據(jù);其次,通過將這些數(shù)據(jù)與當(dāng)前數(shù)據(jù)相結(jié)合,
    的頭像 發(fā)表于 04-15 10:04 ?450次閱讀
    基于TOF深度相機的<b class='flag-5'>圖像</b>處理專利獲授權(quán)

    KOALA人工智能圖像生成模型問世

    近日,韓國科學(xué)團隊宣布研發(fā)出名為 KOALA 的新型人工智能圖像生成模型,該模型在速度和質(zhì)量上均實現(xiàn)了顯著突破。KOALA 能夠在短短 2 秒內(nèi)生成
    的頭像 發(fā)表于 03-05 10:46 ?823次閱讀

    谷歌Gemini AI模型因人物圖像生成問題暫停運行

    據(jù)報道,部分用戶發(fā)現(xiàn)Gemini生成的圖片存在明顯錯誤,如特斯拉創(chuàng)始人和其他名人變成了黑人模樣。谷歌已決定暫停該模型的人物圖像生成功能以待改善。
    的頭像 發(fā)表于 02-25 09:59 ?626次閱讀

    小白學(xué)大模型:什么是生成式人工智能?

    來源:Coggle數(shù)據(jù)科學(xué)什么是生成式人工智能?在過去幾年中,機器學(xué)習(xí)領(lǐng)域取得了迅猛進(jìn)步,創(chuàng)造了人工智能的新的子領(lǐng)域:生成式人工智能。這些程序通過分析大量的數(shù)字化材料產(chǎn)生新穎的文本
    的頭像 發(fā)表于 02-22 08:27 ?1784次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:什么是<b class='flag-5'>生成</b>式人工智能?

    Stability AI試圖通過新的圖像生成人工智能模型保持領(lǐng)先地位

    Stability AI的最新圖像生成模型Stable Cascade承諾比其業(yè)界領(lǐng)先的前身Stable Diffusion更快、更強大,而Stable Diffusion是許多其他文本到圖像
    的頭像 發(fā)表于 02-19 16:03 ?985次閱讀
    Stability AI試圖通過新的<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>人工智能<b class='flag-5'>模型</b>保持領(lǐng)先地位

    招就行—鴻蒙OS 編寫第一個頁面

    在 Java UI 框架,提供了兩種編寫布局的方式:在XML聲明UI布局和在代碼創(chuàng)建布局。這兩種方式創(chuàng)建出的布局沒有本質(zhì)差別,為了熟悉兩種方式,我們將通過 XML 的方式編寫第一個
    的頭像 發(fā)表于 01-26 18:01 ?799次閱讀
    <b class='flag-5'>一</b>招就行—鴻蒙OS 編寫<b class='flag-5'>第一個</b>頁面
    主站蜘蛛池模板: 一个人免费观看HD完整版 | 久久视频在线视频观看天天看视频 | yellow在线观看免费观看大全 | 国际老妇高清在线观看 | 亚洲精品久久久午夜麻豆 | 桥本有菜黑丝 | 奇米色偷偷| 97人人爽人人爽人人人片AV | 无码人妻丰满熟妇啪啪网不卡 | 亚洲伊人久久综合影院2021 | 9420高清完整版在线电影免费观看 | 国产成在线观看免费视频 | 秋霞电影网午夜免费鲁丝片 | 长泽梓黑人初解禁bdd07 | 俄罗斯xxxxxbbbbb | 十八禁肉动漫无修在线播放 | 国产成人精品永久免费视频 | 久久精品国产免费中文 | 国自产拍 高清精品 | 视频一区在线免费观看 | 最新国自产拍天天更新 | 亚洲国产精品综合久久一线 | 国产精品乱码色情一区二区视频 | AV天堂AV亚洲啪啪久久无码 | 做暧暧免费30秒体验 | 第一次处破女高清电影 | 天天操人人射 | 粗壮挺进邻居人妻无码 | 中文字幕va一区二区三区 | 无码日本亚洲一区久久精品 | 亚洲精品久久久久AV无码林星阑 | 国产永不无码精品AV永久 | a级成人免费毛片完整版 | 久久久久综合 | 黄色jjzz| 亚洲精品国产自在现线最新 | 日本老妇一级特黄aa大片 | 免费精品一区二区三区AA片 | 欧美丰满熟妇无码XOXOXO | 午夜深情在线观看免费 | 欧美最猛性XXX孕妇 欧美最猛性xxxxx亚洲精品 |