色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NeRF的研究目的是合成同一場景不同視角下的圖像

3D視覺工坊 ? 來源:3D視覺工坊 ? 2023-01-29 10:54 ? 次閱讀

NeRF,即Neural Radiance Fields(神經(jīng)輻射場)的縮寫。研究員來自UCB、Google和UCSD

Title:NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis

Paper:https://arxiv.org/pdf/2003.08934.pdf

Code:https://github.com/bmild/nerf

寫這篇文章的動機是,一方面NeRF實在太重要了代表著計算機視覺、圖像學結(jié)合的未來重要方向;另一方面NeRF對于計算機視覺背景的同學有一定的理解門檻,這篇文章試圖以最小背景知識補充、最少理解成本為前提介紹NeRF。

整體介紹

NeRF的研究目的是合成同一場景不同視角下的圖像。方法很簡單,根據(jù)給定一個場景的若干張圖片,重構(gòu)出這個場景的3D表示,然后推理的時候輸入不同視角就可以合成(渲染)這個視角下的圖像了。

「3D表示」有很多種形式,NeRF使用的是輻射場,然后用「體渲染」(Volume Rendering)技術(shù),給定一個相機視角,把輻射場渲染成一張圖像。選用輻射場+體渲染的原因很簡單,全程可微分。這個過程很有意思,可以理解為把一個空間朝一個方向上拍扁,空間中的顏色加權(quán)求和得到平面上的顏色。

輻射場

7979651c-9f7f-11ed-bfe3-dac502259ad0.png

體渲染

所謂體渲染,直觀地說,我們知道相機的焦點,焦點和像素的連線可以連出來一條射線,我們可以對這條射線上所有的點的顏色做某種求和就可以得到這個像素的顏色值。

理論上,我們可以對這條射線經(jīng)過空間上的每個點的密度(只和空間坐標相關(guān))和顏色(同時依賴空間坐標和入射角)進行某種積分就可以得到每個像素的顏色。當每個像素的顏色都計算出來,那么這個視角下的圖像就被渲染出來了。如下圖所示:

7984c5e2-9f7f-11ed-bfe3-dac502259ad0.jpg

從相機焦點出發(fā),往一個像素連出一條射線,獲取射穿過空間中每個點的屬性,進行積分得到這個像素的顏色

為了順利完成上面過程,我們可能需要維護碩大無朋Tensor來表示輻射場,查表獲取RGB和密度。這里一個問題是空間有多大表就有多大,同時只能是離散表示的。NeRF要做的事情是用一個神經(jīng)網(wǎng)絡來建模輻射場,這樣無論空間有多大,不影響我們表示輻射場的所需要的存儲量,而且這個輻射場表示是連續(xù)的:?Θ:(?,?,?,?,?)→(?,?,?,?

799646fa-9f7f-11ed-bfe3-dac502259ad0.png

79a2b46c-9f7f-11ed-bfe3-dac502259ad0.jpg

用神經(jīng)網(wǎng)絡來代替查表的方式表示輻射場

整體過程

因為神經(jīng)網(wǎng)絡是可微分的,選取的體渲染方法是可微分;體渲染得到的圖片和原圖計算MSE Loss。整個過程可端到端地用梯度回傳來優(yōu)化非常漂亮。整個訓練Pipeline如下圖所示:

79b9f91a-9f7f-11ed-bfe3-dac502259ad0.jpg

看到這,讀者就已經(jīng)大致理解NeRF的原理了,后面章節(jié)是NeRF的具體細節(jié)。

用輻射場做體渲染

前面我們已經(jīng)大致理解體渲染的過程是怎么做了??墒窃趺囱刂渚€對空間中的顏色進行積分呢?如果我們把射線看作是光線,可以直觀得到這個積分要滿足的兩個條件:

1、一個點的密度越高,射線通過它之后變得越弱,密度和透光度呈反比

2、一個點的密度越高,這點在這個射線下的顏色反應在像素上的權(quán)重越大

79c63be4-9f7f-11ed-bfe3-dac502259ad0.png

而實際渲染過程,我們只能把射線平均分成N個小區(qū)間,每個區(qū)間隨機采樣一個點,對采樣得到的點的顏色進行某種加權(quán)求和:

79d6a290-9f7f-11ed-bfe3-dac502259ad0.png

神經(jīng)輻射場的兩項優(yōu)化點

Positional encoding

類似Transformer的做法,把坐標和視角用更高維度的表示作為網(wǎng)絡輸入,來解決渲染圖像比較糊的問題:

79e7de2a-9f7f-11ed-bfe3-dac502259ad0.png

Hierachical volume sampling

79f73cf8-9f7f-11ed-bfe3-dac502259ad0.png

Architecture

7a0404f6-9f7f-11ed-bfe3-dac502259ad0.png

私貨

無論從方法的開創(chuàng)性,還是發(fā)表后兩年多的影響力來看。在筆者心目中,ECCV 2020的Best Paper沒給NeRF,不得不說是一個遺憾。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2894

    瀏覽量

    107653
  • 神經(jīng)網(wǎng)絡

    關(guān)注

    42

    文章

    4774

    瀏覽量

    100897
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    799

    瀏覽量

    58573

原文標題:都2023年了,我不允許你還不懂NeRF

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    VirtualLab Fusion應用:曲分析儀

    的分析器來研究這種影響。 曲,也稱為“的曲率”,是種常見的光學效應,它會使平面物體在畫面的某些部分看起來很銳利,而不是在整個幀上
    發(fā)表于 01-02 16:36

    SSTF中脈沖前傾的仿真

    用透鏡聚焦以獲得在空間和時間域中尺寸最小的焦點。雖然在某些應用中這種影響是不必要的,但在某些光學領(lǐng)域,如非線性頻率轉(zhuǎn)換或太赫茲生成,它可能是有好處的。 2 場景 2.1場景:系統(tǒng)配置 2.2
    發(fā)表于 12-31 09:04

    全面總結(jié)動態(tài)NeRF

    1. 摘要 神經(jīng)輻射NeRF)是種新穎的隱式方法,可以實現(xiàn)高分辨率的三維重建和表示。在首次提出NeRF研究之后,
    的頭像 發(fā)表于 11-14 16:48 ?396次閱讀
    全面總結(jié)動態(tài)<b class='flag-5'>NeRF</b>

    大華股份鴻鵠智能物聯(lián)主機 賦能萬千場景數(shù)視升級

    和技術(shù)創(chuàng)新,重磅推出大華鴻鵠智能物聯(lián)主機(以下簡稱大華鴻鵠主機),賦能萬千場景數(shù)視升級。 作為全球首款采用全國產(chǎn)化硬件鴻蒙系統(tǒng)物聯(lián)主機,大華鴻鵠主機采用寬溫設計,雙板雙控,具備4000+海量協(xié)議和22Tops超高算力,可滿足各行業(yè)物聯(lián)數(shù)據(jù)接入,
    的頭像 發(fā)表于 08-15 16:01 ?414次閱讀
    大華股份鴻鵠智能物聯(lián)主機 賦能萬千<b class='flag-5'>場景</b>數(shù)視升級

    視覺新紀元:解碼LED顯示屏的視角、可視角、最佳視角的最終奧秘

    在璀璨奪目的LED顯示屏世界里,每個絢爛畫面的背后,都離不開三個關(guān)鍵概念:視角、可視角與最佳視角。這些術(shù)語不僅是衡量顯示效果的重要標尺,也
    的頭像 發(fā)表于 06-23 02:55 ?673次閱讀
    視覺新紀元:解碼LED顯示屏的<b class='flag-5'>視角</b>、可<b class='flag-5'>視角</b>、最佳<b class='flag-5'>視角</b>的最終奧秘

    NVIDIA Instant NeRF將多組靜態(tài)圖像變?yōu)?D數(shù)字場景

    想象幅風光旖旎的畫面,比如水畔的懸崖峭壁。即便只是 2D 圖像,如此美景依舊令人心馳神往。如果同一畫面能以 3D 效果展現(xiàn),那么無需跋涉就能身臨其境。
    的頭像 發(fā)表于 05-07 09:15 ?424次閱讀

    LiDAR4D:基于時空新穎的LiDAR視角合成框架

    NeRF-LiDAR將圖像和點云模態(tài)整合到激光雷達合成中,而諸如LiDAR-NeRF和NFL之類的僅激光雷達的方法探索了在沒有RGB圖像的情
    發(fā)表于 04-10 12:34 ?1299次閱讀
    LiDAR4D:基于時空新穎的LiDAR<b class='flag-5'>視角</b><b class='flag-5'>合成</b>框架

    中國科技少年的英雄夢想,從一場ICT大賽啟程

    一場華為ICT大賽,科技少年之夢的起點與歸途
    的頭像 發(fā)表于 04-08 14:22 ?601次閱讀
    中國科技少年的英雄夢想,從<b class='flag-5'>一場</b>ICT大賽啟程

    什么是SLAM?基于3D高斯輻射的SLAM優(yōu)勢分析

    基于NeRF的SLAM算法采用全局地圖和圖像重建損失函數(shù),通過可微分渲染捕獲稠密的光度信息,具有高保真度。
    的頭像 發(fā)表于 04-01 12:44 ?764次閱讀

    線路板阻焊掉油:一場對性能與壽命的挑戰(zhàn)

    線路板阻焊掉油:一場對性能與壽命的挑戰(zhàn)
    的頭像 發(fā)表于 03-14 15:23 ?1041次閱讀

    基于綠色視角的高校校園建設及能耗分析

    電子發(fā)燒友網(wǎng)站提供《基于綠色視角的高校校園建設及能耗分析.docx》資料免費下載
    發(fā)表于 03-12 11:07 ?1次下載

    電壓放大器在合成射流高效摻混機理研究中的應用

    合成射流激勵器的頻率和電壓特性(附圖3)。完成合成射流激勵器標定后,使用高速相機和雙脈沖激光器進行粒子圖像測速(PIV)實驗獲得流數(shù)據(jù),以研究
    發(fā)表于 03-08 17:47

    谷歌模型合成工具怎么用

    谷歌模型合成工具主要是指Dreamfusion,這是Google的大型AI圖像模型Imagen與NeRF的3D功能相結(jié)合的種技術(shù)。Dreamfusion是Dream Fields的演
    的頭像 發(fā)表于 02-29 17:33 ?825次閱讀

    基于NeRF/Gaussian的全新SLAM算法

    基于NeRF的SLAM算法采用全局地圖和圖像重建損失函數(shù),通過可微分渲染捕獲稠密的光度信息,具有高保真度。
    的頭像 發(fā)表于 01-26 10:48 ?670次閱讀
    基于<b class='flag-5'>NeRF</b>/Gaussian的全新SLAM算法

    基于綠色視角的高校校園建設及能耗分析

    電子發(fā)燒友網(wǎng)站提供《基于綠色視角的高校校園建設及能耗分析.docx》資料免費下載
    發(fā)表于 01-11 16:08 ?0次下載
    主站蜘蛛池模板: 999zyz色资源站在线观看| 一二三四视频免费社区5| 精品国产乱码久久久久久上海公司 | 国产成人无码视频一区二区三区 | 啦啦啦视频在线观看WWW| 国产中文视频无码成人精品| 被室友C哭调教双性| 99热这里只有是精品| 97在线观看成人免费视频| 最近中文字幕2019免费版| 又黄又肉到湿的爽文| 一区二区乱子伦在线播放| 亚洲性无码AV久久成人| 亚洲伊人精品| 在线观看免费av网| 中国bdsmchinesehd| 中国特级黄色大片| 97久久伊人精品影院| 99视频网站| 成 人 动漫3d 在线看| 成人无码在线视频区| 儿子你得太大了慢点插| 富婆夜店找黑人猛男BD在线| 国产精品18久久久久网站| 国产私拍福利精品视频| 很黄很色60分钟在线观看| 久久电影午夜| 美女洗澡脱得一二干净| 暖暖 免费 高清 日本视频5| 青娱乐国产精品视频| 天堂精品国产自在自线| 亚洲精品蜜桃AV久久久| 诱人的女邻居9中文观看| 91麻豆国产精品91久久久| VIDEOSGGRATIS欧美另类| 国产爱豆果冻传媒在线观看| 国产品无码一区二区三区在线| 极品少妇伦理一区二区| 免费光看午夜请高视频| 日韩男明星| 亚洲精品在线影院|