色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于特征深度學(xué)習(xí)重建網(wǎng)絡(luò)來恢復(fù)通暢的圖像

lhl545545 ? 來源:計算機(jī)視覺芯片設(shè)計 ? 作者:計算機(jī)視覺芯片設(shè) ? 2022-08-18 11:18 ? 次閱讀

今年來溫哥華參加的siggraph也是第二次參加這種檔次的會議,我比較關(guān)注計算影像學(xué)。

1. Centimeter-Wave Free-Space Time-of-Flight Imaging

深度相機(jī)正在成為一種基石模式,具有直接或間接依賴于測量深度的多種應(yīng)用,包括個人設(shè)備、機(jī)器人自動駕駛汽車。盡管飛行時間 (ToF) 方法推動了這些應(yīng)用,但 ToF 方法的精度和魯棒性受到依賴于光子時間標(biāo)記或光轉(zhuǎn)換后調(diào)制的限制。成功的光調(diào)制方法有大耦合損耗的受限光纖耦合調(diào)制或亞厘米范圍的干涉調(diào)制,干涉方法與ToF方法之間的精度差距超過三個數(shù)量級。在這項(xiàng)工作中,我們縮小了這一差距,并提出了一種用于光轉(zhuǎn)換前的全光學(xué)自由空間相關(guān)的計算成像方法,該方法通過傳統(tǒng)的硅強(qiáng)度傳感器實(shí)現(xiàn)了微米級深度分辨率,并對表面反射率和環(huán)境光具有魯棒性。為此,我們解決了兩個技術(shù)挑戰(zhàn):以 GHz 速率調(diào)制和計算相位展開。我們提出了一種具有諧振偏振調(diào)制器的成像方法,并設(shè)計了一種新穎的光學(xué)雙通倍頻,可在超過 10GHz 時實(shí)現(xiàn)高調(diào)制對比度。同時,厘米波調(diào)制以及較小的調(diào)制帶寬使現(xiàn)有的相位展開方法無效。我們使用一種神經(jīng)相位展開方法來解決這個問題,該方法利用相鄰的包裹通常高度相關(guān)。我們在模擬和實(shí)驗(yàn)中驗(yàn)證了所提出的方法,它達(dá)到了微米級的深度精度。我們展示了獨(dú)立于表面紋理和環(huán)境光的精確深度感應(yīng),并與現(xiàn)有的模擬解調(diào)方法進(jìn)行了比較,我們在所有測試場景中都表現(xiàn)出色。

2. Blending Camera and 77 GHz Radar Sensing for Equitable, Robust Plethysmography.

隨著因 COVID-19 大流行而導(dǎo)致的非接觸式生命體征傳感的復(fù)蘇,遠(yuǎn)程心率監(jiān)測已獲得顯著的重視。許多現(xiàn)有方法使用相機(jī);然而,之前的工作顯示較深膚色的性能損失。在本文中,我們通過光傳輸分析表明,相機(jī)模式從根本上偏向于較深的膚色。我們建議通過多模態(tài)融合與互補(bǔ)和更公平的模態(tài)——雷達(dá)來減少這種偏差。通過一種新穎的面向去偏的融合框架,我們在所有測試基線上實(shí)現(xiàn)了性能提升,并在 RGB 模態(tài)上實(shí)現(xiàn)了膚色公平性改進(jìn)。此外,與基于雷達(dá)的方法相比,性能得到了改進(jìn),但公平性方面的權(quán)衡很小。我們還開源了最大的多模式遠(yuǎn)程心率估計數(shù)據(jù)集,其中包括配對相機(jī)和雷達(dá)測量,重點(diǎn)是膚色表示。

33a915c6-19ee-11ed-ba43-dac502259ad0.png

3. Seeing Through Obstructions With Diffractive Cloaking

33da3ec6-19ee-11ed-ba43-dac502259ad0.png

我們提出了一種計算單目相機(jī),它可以在光學(xué)上隱藏不需要的障礙物,例如鏡頭蓋玻璃上的雨滴或污漬,或相機(jī)附近的柵欄。我們沒有在捕獲后修復(fù)被遮擋的信息,而是學(xué)習(xí)了一個定制的衍射光學(xué)元件,當(dāng)它放置在相機(jī)鏡頭前時,它充當(dāng)了一個與深度相關(guān)的散射體。學(xué)習(xí)到的光學(xué)元件位于現(xiàn)有相機(jī)設(shè)置的孔徑平面上,并產(chǎn)生一個點(diǎn)擴(kuò)散函數(shù),為近距離物體提供大空間支持,將光線從焦點(diǎn)處散射出去。同時在不增加相機(jī)占用空間的情況下保持長距離的空間分辨率。結(jié)合光學(xué)元件,我們共同優(yōu)化了一個基于特征的深度學(xué)習(xí)重建網(wǎng)絡(luò)來恢復(fù)通暢的圖像。

4. Optical Aberrations Correction in Postprocessing Using Imaging Simulation

隨著移動攝影的不斷普及,人們正在投入大量精力來重建退化的圖像。由于在鏡頭設(shè)計過程中無法避免的光學(xué)像差的空間變化,最近的商用相機(jī)已將其中一些校正任務(wù)從光學(xué)設(shè)計轉(zhuǎn)移到后處理系統(tǒng)。然而,在不涉及光學(xué)參數(shù)的情況下,這些系統(tǒng)只能實(shí)現(xiàn)有限的像差校正。

在這項(xiàng)工作中,我們提出了一種實(shí)用的方法來恢復(fù)由光學(xué)像差引起的退化。具體來說,我們建立了基于我們提出的光學(xué)點(diǎn)擴(kuò)散函數(shù)模型的成像模擬系統(tǒng)。給定相機(jī)的光學(xué)參數(shù),它會生成這些特定設(shè)備的成像結(jié)果。為了進(jìn)行恢復(fù),我們在成像模擬系統(tǒng)生成的合成數(shù)據(jù)對上設(shè)計了一個空間自適應(yīng)網(wǎng)絡(luò)模型,消除了通過大量拍攝和配準(zhǔn)捕獲訓(xùn)練數(shù)據(jù)的開銷。

此外,我們分別使用定制的數(shù)字單鏡頭反光相機(jī)鏡頭和 HUAWEI HONOR 20 在模擬和實(shí)驗(yàn)中全面評估了所提出的方法。實(shí)驗(yàn)表明,我們的解決方案成功地消除了空間變化的模糊和色散。與最先進(jìn)的去模糊方法相比,所提出的方法以更低的計算開銷實(shí)現(xiàn)了更好的結(jié)果。此外,重建技術(shù)沒有引入人工紋理,便于移植到當(dāng)前的商用相機(jī)中。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7597

    瀏覽量

    89110
  • 影像
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    14528
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5512

    瀏覽量

    121413

原文標(biāo)題:2022 Siggraph:計算影像學(xué)(1)

文章出處:【微信號:計算機(jī)視覺芯片設(shè)計,微信公眾號:計算機(jī)視覺芯片設(shè)計】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    通過深度學(xué)習(xí)圖像三維物體重建研究方案

    假設(shè) 為物體的一張或多張RGB圖片。三維重建可以總結(jié)為一個學(xué)習(xí)預(yù)測算子的過程,輸入圖像到該算子可得到一個和物體相似的模型。因此重建的目標(biāo)函數(shù)為,其中為算子的參數(shù),為
    發(fā)表于 02-13 09:31 ?792次閱讀

    深度學(xué)習(xí)介紹

    網(wǎng)絡(luò)最終實(shí)現(xiàn)更通用的識別。這些多層的優(yōu)點(diǎn)是各種抽象層次的學(xué)習(xí)特征。例如,若訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 11-11 07:55

    基于深度圖像重建Matlab代碼

    本文檔內(nèi)容介紹了基于深度圖像重建Matlab代碼,供網(wǎng)友參考。
    發(fā)表于 09-15 10:03 ?21次下載
    基于<b class='flag-5'>深度圖像</b><b class='flag-5'>重建</b>Matlab代碼

    基于深度學(xué)習(xí)的多尺幅深度網(wǎng)絡(luò)監(jiān)督模型

    針對場景標(biāo)注中如何產(chǎn)生良好的內(nèi)部視覺信息表達(dá)和有效利用上下文語義信息兩個至關(guān)重要的問題,提出一種基于深度學(xué)習(xí)的多尺度深度網(wǎng)絡(luò)監(jiān)督模型。與傳統(tǒng)多尺度方法不同,模型主要由兩個
    發(fā)表于 11-28 14:22 ?0次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的多尺幅<b class='flag-5'>深度</b><b class='flag-5'>網(wǎng)絡(luò)</b>監(jiān)督模型

    數(shù)據(jù)外補(bǔ)償?shù)?b class='flag-5'>深度網(wǎng)絡(luò)超分辨率重建

    分辨率重建結(jié)果.為了克服歧義性造成的高頻細(xì)節(jié)損失。本文提出了一種基于深度網(wǎng)絡(luò)。利用在線檢索的數(shù)據(jù)進(jìn)行高頻信息補(bǔ)償?shù)?b class='flag-5'>圖像超分辨率重建算法.該方
    發(fā)表于 12-15 14:34 ?0次下載

    基于鄰域特征學(xué)習(xí)的單幅圖像超分辨重建

    針對圖像重建過程中待插值點(diǎn)灰度估計不準(zhǔn)確的問題,提出一種基于鄰域特征學(xué)習(xí)的單幅圖像超分辨回歸分析方法。在輸入低分辨率
    發(fā)表于 02-07 15:59 ?1次下載
    基于鄰域<b class='flag-5'>特征</b><b class='flag-5'>學(xué)習(xí)</b>的單幅<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建</b>

    一種新的目標(biāo)分類特征深度學(xué)習(xí)模型

    受限和高識別率要求,提取圖像的局部方向梯度直方圖( HOG)特征,構(gòu)建稀疏自編碼器棧對HOG特征進(jìn)行深層次編碼,設(shè)計Softmax多分類器對所抽取的特征進(jìn)行分類。在
    發(fā)表于 03-20 17:30 ?0次下載
    一種新的目標(biāo)分類<b class='flag-5'>特征</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>模型

    基于深度學(xué)習(xí)圖像塊型超分辨重建的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析

    基于Per-Pixel Loss的超分辨重建網(wǎng)絡(luò)目標(biāo)在于直接最小化高清原圖與超分辨重建圖像之間的差異,使得超分辨重建圖像逐步逼近原圖的清晰效
    的頭像 發(fā)表于 03-26 11:15 ?6191次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的<b class='flag-5'>圖像</b>塊型超分辨<b class='flag-5'>重建</b>的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析

    圖像恢復(fù)這個任務(wù),如何使用深度圖像先驗(yàn)解決此任務(wù)

    深度卷積網(wǎng)絡(luò)因其能夠從大量圖像數(shù)據(jù)集中學(xué)習(xí)而獲得成功。 Dmitry Ulyanov的論文“Deep Image Prior”表明,為了解決像圖像
    的頭像 發(fā)表于 02-18 16:38 ?4981次閱讀

    深度學(xué)習(xí)不是萬靈藥 神經(jīng)網(wǎng)絡(luò)3D建模其實(shí)只是圖像識別

    隨著深度學(xué)習(xí)的大熱,許多研究都致力于如何從單張圖片生成3D模型。但近期一項(xiàng)研究表明,幾乎所有基于深度神經(jīng)網(wǎng)絡(luò)的3D中重建工作,實(shí)際上并不是
    的頭像 發(fā)表于 06-17 11:21 ?4748次閱讀

    深度學(xué)習(xí)時代的為基于圖像的三維重建提供了新的可能

    這些方法在近年來取得了令人矚目的效果,在通用物體重建和類似人臉的特殊物體重建上都取得了不錯的結(jié)果。接下來我們將從重建問題的流程,三維表示,基于不同表示的重建方法、模型架構(gòu)、數(shù)據(jù)集以及訓(xùn)
    的頭像 發(fā)表于 08-02 15:04 ?6136次閱讀

    一種多層級特征融合就的深度卷積網(wǎng)絡(luò)

    使用Resnetl01網(wǎng)絡(luò)結(jié)構(gòu)將圖像轉(zhuǎn)換為高維特征圖,解碼器使用上采樣卷積模塊從高維特征圖中重建深度圖
    發(fā)表于 03-16 09:21 ?7次下載
    一種多層級<b class='flag-5'>特征</b>融合就的<b class='flag-5'>深度</b>卷積<b class='flag-5'>網(wǎng)絡(luò)</b>

    基于特征圖注意力機(jī)制的圖像超分辨重建網(wǎng)絡(luò)模型

    圖像超分辨率重建中的高頻分量通常包含較多輪廓、紋理等細(xì)節(jié)信息,為更好地處理特征圖中的高頻分量與低頻分量,實(shí)現(xiàn)自適應(yīng)調(diào)整信道特征,提岀一種基于特征
    發(fā)表于 03-22 14:45 ?22次下載
    基于<b class='flag-5'>特征</b>圖注意力機(jī)制的<b class='flag-5'>圖像</b>超分辨<b class='flag-5'>重建網(wǎng)絡(luò)</b>模型

    基于復(fù)合的深度神經(jīng)網(wǎng)絡(luò)圖像超分辨率重建

    針對現(xiàn)有單圖像超分辨率重建時主要采用的簡單鏈?zhǔn)蕉询B的單一網(wǎng)絡(luò)存在層間聯(lián)系弱、網(wǎng)絡(luò)關(guān)注點(diǎn)單一以及分層特征不能充分利用等問題,提出了一種復(fù)合的
    發(fā)表于 04-13 10:35 ?5次下載
    基于復(fù)合的<b class='flag-5'>深度</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>的<b class='flag-5'>圖像</b>超分辨率<b class='flag-5'>重建</b>

    基于改進(jìn)殘差網(wǎng)絡(luò)的水下圖像重建修復(fù)

    ,該方法將網(wǎng)絡(luò)中的殘差密集塊和自適應(yīng)機(jī)制進(jìn)行融合,有效解決深度學(xué)習(xí)網(wǎng)絡(luò)中經(jīng)常遇到的梯度爆炸冋題,冋時能夠抑制無用信息的學(xué)習(xí),充分利用重要特征
    發(fā)表于 06-17 15:37 ?10次下載
    主站蜘蛛池模板: 国产午夜福利伦理300 | 精品粉嫩BBWBBZBBW | 囚禁固定在调教椅上扩张H 秋霞最新高清无码鲁丝片 秋霞在线看片无码免费 | 蜜桃无码AV视频在线观看 | 玖玖热视频一区二区人妻 | 亚洲国产成人久久精品影视 | 伊人yinren6综合网色狠狠 | 轻轻挺进女教师的身体 | 亚洲免费国产在线日韩 | 99热在线播放 | 果冻传媒视频在线播放 | 亚洲欧美激情精品一区二区 | 99国产在线精品观看二区 | 天天插天天舔 | 微拍秒拍99福利精品小视频 | 国产精品JK白丝AV网站 | 久久99国产亚洲高清观着 | 性满足久久久久久久久 | 欧美zozofoot| 日韩a在线看免费观看视频 日韩a视频在线观看 | 儿媳妇完整版视频播放免费观看 | 打扑克床上视频不用下载免费观看 | 亚洲第一区欧美日韩精品 | 国产在线一卡二卡 | 久久综合狠狠综合久久综合88 | 后入内射国产一区二区 | 国产精品久久久久久久AV下载 | 在线观看成人3d动漫入口 | 精品性影院一区二区三区内射 | 成人毛片免费播放 | 午夜爱情动作片P | WWW国产精品内射熟女 | 天天操天天干天天透 | jizz日本女人| 麻豆一区二区免费播放网站 | 火影小南被爆羞羞网站 | 伊人大香线蕉精品在线播放 | 擦擦擦在线视频观看 | 亚洲AV无码乱码国产麻豆穿越 | 午夜国产羞羞视频免费网站 | 久久婷婷色一区二区三区 |