色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

深度預測模型推斷移動中的人的場景深度

電子工程師 ? 來源:YXQ ? 2019-05-27 11:23 ? 次閱讀

谷歌近日推出了在計算機視覺領域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預測深度圖,可以在場景內(nèi)的攝像頭和人同時運動的復雜情況下生成自然視頻。

人類的視覺系統(tǒng)具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的復雜環(huán)境中,人也能夠對物體的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領域都在研究如何通過2D圖像數(shù)據(jù)計算重建場景的幾何特征,來實現(xiàn)和人類類似的能力,但在許多情況下,仍然難以實現(xiàn)具備充分魯棒性的重建。

當攝像頭和場景中的物體都在自由移動時,是實現(xiàn)重建的最困難的情況。這種情況混淆了基于三角測量的傳統(tǒng)3D重建算法,該算法假設可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標本身是靜止狀態(tài)。因此,現(xiàn)有的大多數(shù)方法要么需要過濾掉移動的目標(將移動目標的深度固定為“零”),要么直接忽略移動目標(會導致深度值發(fā)生錯誤)。

左圖:傳統(tǒng)的立體設置假設至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基于深度學習的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標都可以自由移動。模型從數(shù)據(jù)中學習人體姿勢和形狀的先驗知識,無需直接3D三角測量。盡管最近使用機器學習進行深度預測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標都在運動的狀態(tài)下的基于學習的方法。

本研究中的觀察目標是人類,人類是增強現(xiàn)實和3D視頻效果的有趣目標。

我們的模型可以預測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。

訓練數(shù)據(jù)

我們以監(jiān)督學習的方式訓練深度預測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關鍵問題是從何處獲取此類數(shù)據(jù)。綜合生成數(shù)據(jù)需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務。

此外,針對這樣的數(shù)據(jù)訓練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD傳感器(如微軟的Kinect)記錄真實場景,但深度傳感器通常僅限于室內(nèi)環(huán)境,而且要面臨3D重建上的一系列問題。

我們利用現(xiàn)有的數(shù)據(jù)來進行監(jiān)督學習:即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持攝像機則在現(xiàn)場記錄。

因為整個場景是靜止的(只有攝像機在移動),所以基于三角測量的方法是行得通的,可以獲得包括其中人物在內(nèi)的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓練數(shù)據(jù)。我們使用傳統(tǒng)的MVS算法來估計深度,并在深度預測模型的訓練中將其用于監(jiān)督。

推斷移動中的人的場景深度

Mannequin挑戰(zhàn)視頻對移動中的攝像機和“定格”的人進行深度監(jiān)控,但我們的目標是利用移動的攝像頭和移動的人來處理視頻。我們需要構建網(wǎng)絡輸入來彌補這一差距。

一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當于單幀圖像)。雖然這種模型改進了用于深度預測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結果。比如運動視差,即兩個不同視點之間的靜態(tài)物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決于場景的深度和攝像頭的相對位置。但是,由于攝像頭位置是已知的,可以從流場中去除二者之間的依賴關系,由此生成初始深度圖。此初始深度僅對靜態(tài)場景區(qū)域有效。為了在測試時處理運動中的人,可以利用人工分割網(wǎng)絡來蓋住初始深度圖中的人類區(qū)域。這樣,我們網(wǎng)絡的完整輸入包括:RGB圖像、蓋住人類的區(qū)域,以及基于視差的遮蓋后的深度圖。

深度預測網(wǎng)絡:模型的輸入包括RGB圖像(第t幀),人類區(qū)域的遮蓋和非人類區(qū)域的初始深度,根據(jù)輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS算法計算出的深度圖負責對訓練過程的監(jiān)督。

該網(wǎng)絡的作用是“修復”人與場景的深度值,并在其他地方細化深度值。因為人類的外形和大小特征幾乎一致,網(wǎng)絡可以通過觀察多個訓練樣例,在模型內(nèi)部學習這些先驗知識。經(jīng)過訓練后,模型就可以處理任意攝像頭和人體同時運動的視頻。

來看一段介紹視頻:

以下是基于視頻的深度預測模型結果的一些示例,并與最近基于最新學習的方法做了比較。

上圖:基于學習的單眼深度預測方法。 下圖:基于學習的立體方法(DeMoN)和我們的估計深度圖的結果。

使用深度圖處理3D視頻效果

我們預測的深度圖可用于產(chǎn)生一系列3D感知視頻效

使用估計深度圖產(chǎn)生的散景效果

我們的深度圖也可用于其他方面的應用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內(nèi)容的情況下進行場景區(qū)域的填充。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6173

    瀏覽量

    105633
  • 深度學習
    +關注

    關注

    73

    文章

    5508

    瀏覽量

    121295

原文標題:Google AI:機器學習預測場景深度圖,模擬人眼更進一步

文章出處:【微信號:smartman163,微信公眾號:網(wǎng)易智能】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領域的一個熱門研究方向。以下是一些FPGA加速深度學習模型的案例: 一、基于FPGA的AlexNet卷積運算加速 項目名稱
    的頭像 發(fā)表于 10-25 09:22 ?266次閱讀

    AI大模型深度學習的關系

    AI大模型深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?930次閱讀

    FPGA做深度學習能走多遠?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應各種深度學習任務,為不同的應用場景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設計僅使用所需的計算資源,從而避免不必要
    發(fā)表于 09-27 20:53

    深度學習模型有哪些應用場景

    深度學習模型作為人工智能領域的重要分支,已經(jīng)在多個應用場景展現(xiàn)出其巨大的潛力和價值。這些應用不僅改變了我們的日常生活,還推動了科技進步和產(chǎn)業(yè)升級。以下將詳細探討
    的頭像 發(fā)表于 07-16 18:25 ?2049次閱讀

    深度神經(jīng)網(wǎng)絡模型量化的基本方法

    盡量保持模型的性能。這一技術通過降低模型參數(shù)的位數(shù)來顯著減小模型的大小,加速推理過程,并降低能耗,從而有助于將深度學習模型部署到邊緣計算設備
    的頭像 發(fā)表于 07-15 11:26 ?714次閱讀

    深度學習模型的過擬合與正則化

    深度學習的廣闊領域中,模型訓練的核心目標之一是實現(xiàn)對未知數(shù)據(jù)的準確預測。然而,在實際應用,我們經(jīng)常會遇到一個問題——過擬合(Overfitting)。過擬合是指
    的頭像 發(fā)表于 07-09 15:56 ?1020次閱讀

    深度學習的時間序列分類方法

    的發(fā)展,基于深度學習的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度對深度學習在時間序列分類的應用進行綜述,探討常用的深度學習
    的頭像 發(fā)表于 07-09 15:54 ?1038次閱讀

    深度學習的無監(jiān)督學習方法綜述

    應用往往難以實現(xiàn)。因此,無監(jiān)督學習在深度學習扮演著越來越重要的角色。本文旨在綜述深度學習的無監(jiān)督學習方法,包括自編碼器、生成對抗網(wǎng)絡、
    的頭像 發(fā)表于 07-09 10:50 ?828次閱讀

    深度學習模型權重

    深度學習這一充滿無限可能性的領域中,模型權重(Weights)作為其核心組成部分,扮演著至關重要的角色。它們不僅是模型學習的基石,更是模型智能的源泉。本文將從
    的頭像 發(fā)表于 07-04 11:49 ?1486次閱讀

    深度學習的典型模型和訓練過程

    深度學習作為人工智能領域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領域取得了顯著進展。其核心在于通過構建復雜的神經(jīng)網(wǎng)絡模型,從大規(guī)模數(shù)據(jù)自動學習并提取特征,進而實現(xiàn)高效準確的
    的頭像 發(fā)表于 07-03 16:06 ?1553次閱讀

    深度神經(jīng)網(wǎng)絡模型cnn的基本概念、結構及原理

    ,其核心是構建具有多層結構的神經(jīng)網(wǎng)絡模型,以實現(xiàn)對復雜數(shù)據(jù)的高效表示和處理。在眾多深度學習模型,卷積神經(jīng)網(wǎng)絡(CNN)因其在圖像識別等領域的卓越性能而備受關注。CNN通過引入卷積層和
    的頭像 發(fā)表于 07-02 10:11 ?9785次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設計的算法。訓練一個深度學習模型,本質上是通過優(yōu)化算法調整模型參數(shù),
    的頭像 發(fā)表于 07-01 16:13 ?1364次閱讀

    深度學習的模型優(yōu)化與調試方法

    深度學習模型在訓練過程,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學習模型進行優(yōu)化與調試是確保其性能優(yōu)越的
    的頭像 發(fā)表于 07-01 11:41 ?868次閱讀

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    復用和優(yōu)化效果。這些趨勢共同推動了大語言模型深度學習研究和應用的重要地位。數(shù)據(jù)效應指出大型模型需要更多數(shù)據(jù)進行訓練,以提高性能。其次,表示能力使得大語言
    發(fā)表于 05-04 23:55

    FPGA在深度學習應用或將取代GPU

    、筆記本電腦或機架式服務器上訓練神經(jīng)網(wǎng)絡時,這不是什么大問題。但是,許多部署深度學習模型的環(huán)境對 GPU 并不友好,比如自動駕駛汽車、工廠、機器人和許多智慧城市環(huán)境,在這些環(huán)境硬件必須忍受熱、灰塵、濕度
    發(fā)表于 03-21 15:19
    主站蜘蛛池模板: 最近2019中文字幕免费| 青草国产超碰人人添人人碱| 伊人久久中文字幕久久cm | 暖暖 视频 免费 高清 在线观看| 国产精品69人妻无码久久久| 97视频在线观看免费播放| 亚洲mv在线观看| 奇米网一区二区三区在线观看| 久久yy99re66| 国产欧美精品一区二区色综合 | 日韩特黄特色大片免费视频| 久久受www免费人成_看片中文| 国产精品一区二区欧美视频| 扒开胸罩揉她的乳尖视频| 2020国产成人精品免费视频| 亚洲宅男天堂a在线| 性啪啪chinese东北女人| 色欲无码国产喷水AV精品| 欧美亚洲日韩一道免费观看| 蜜桃视频一区二区| 久久天堂视频| 久久久久国产精品美女毛片| 狠狠色综合久久丁香婷婷| 国产性色AV内射白浆肛交后入| 国产成人v视频在线观看| 陈红下面又紧又小好爽| www色视频在线观看| H厨房灌草莓| georgielyall装修工| a一级毛片视频免费看| 99国产在线视频| 99国产精品久久人妻| 99er热精品视频国产免费| 97超碰97资源在线观看| 76人遣返航班上71人呈阳性| 24小时日本在线| 91久久精品一区二区三区| 999www成人免费视频| jizz日本女人| 草莓视频在线播放视频| 俄罗斯女人Z0ZOZO|