色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器視覺技術(shù)有一大進步谷歌實現(xiàn)了對移動鏡頭下移動人物的深度預(yù)測

電子工程師 ? 來源:未知 ? 2019-06-01 11:35 ? 次閱讀

人類的視覺神經(jīng)是一套神奇的系統(tǒng)。

作為三維生物的視覺系統(tǒng),我們可以輕易地把三維空間的二維投影(照片/視頻)在大腦里重新還原成三維空間。換句話說,當(dāng)我們看到一個平面上的兩個物體時,我們知道這兩個物體并非重疊,而是一前一后。我們甚至可以估算出這兩者之間的大致距離。

對于試圖超越人類視覺能力的計算機視覺技術(shù)來說,重建三維空間時的深度預(yù)測這一技能卻是一個繞不開的難題。畢竟,機器的輸入只是一個二維平面上的像素分布數(shù)據(jù),而利用兩個觀測點進行三角測量卻需要多相機陣列或?qū)ο蟊3朱o止。面對“人機皆動”的動態(tài)場景,當(dāng)下的計算機視覺算法就無能為力了。

當(dāng)然,任何技術(shù)突破需要的只是時間。這不,GoogleAI 的研究人員根據(jù)運動視差(MotionParallax)的原理,成功的訓(xùn)練出了一個深度學(xué)習(xí)的沙漏模型,有效地解決了移動鏡頭下移動人物的深度預(yù)測問題。

圖 |輸入鏡頭和人物都在自由移動的普通視頻(左)得到深度圖(右),此深度圖中越亮表示離相機越近。(來源:Tali Dekel,et al./Google AI)

我們的世界并不是二維平面,雖然人類視覺系統(tǒng)可以輕易地將看到的 2D 圖像轉(zhuǎn)化為 3D,但機器該如何知曉深度呢?目前的主流方法是利用三角測量(Triangulation),三角測量理論是通過兩點觀測來確定對象的位置,即兩個觀測點和對象處于同一平面,通過兩個觀測點的距離和兩個夾角來計算對象的位置。完成三角測量需要有多個相機組成陣列,如 Google’sJump,若一個鏡頭的話,就要在鏡頭移動的時候?qū)ο蟊3朱o止。

而在鏡頭和場景里的對象都在自由移動的情況下,不確定的位置使三角測量算法感到迷惑迷茫甚至絕望,于是大多現(xiàn)存的深度預(yù)測方法就會開始“瞎算”,要么過濾掉移動對象,將他們視為噪音,直接標記為 0,要么假裝目標沒有移動,計算出不正確的深度值。

圖 | 傳統(tǒng)立體測量場景是利用同時的兩點觀測數(shù)據(jù),即目標物靜止(左);鏡頭和對象在同時移動的測量場景,三角測量理論無法適用(右)。(來源:Tali Dekel,et al./Google AI)

面對這種不科學(xué)的做法,GoogleAI 的研究人員創(chuàng)造了首個針對于鏡頭和人體同時移動情況的深度學(xué)習(xí)模型,并不是傳統(tǒng)針對靜止對象的深度預(yù)測模型,無需 3D 三角測量,僅利用鏡頭和人物都在移動的普通視頻數(shù)據(jù),完美輸出深度圖(一種三維場景的信息表達方式,圖的像素值反映場景中物體到相機的距離)。這與現(xiàn)實世界大多數(shù)物體都在運動的情況契合,并且模型表現(xiàn)優(yōu)于現(xiàn)有最佳深度預(yù)測模型,能真實還原移動人物的位置,如此,一些視頻里動態(tài)人物的扣除、遮擋鏡頭的還原,一些 3D 效果渲染,都不在話下。

訓(xùn)練數(shù)據(jù)的收集

此深度預(yù)測模型利用有監(jiān)督的方式進行訓(xùn)練,即需要自然場景下的有移動鏡頭的視頻,并且有精準的深度數(shù)據(jù)。那么如何得到有標注的訓(xùn)練數(shù)據(jù)集呢?這就要從 2016 年 11 月開始風(fēng)靡互聯(lián)網(wǎng)的 YouTube 人體模特挑戰(zhàn)(Mannequin Challenge)說起了。

在這個挑戰(zhàn)中,人靜止于各種姿勢,如同模特,鏡頭移動過整個場景拍成視頻,素材里整個場景靜止,只有相機在移動,所以基于三角測量的一些 3D 重建方法,如 multi-view-stereo (MVS),可以精準地計算出整個場景包括人物的深度,從而得到深度標注。整個數(shù)據(jù)集約有 2000 個視頻,涵蓋各種真實場景下的各種造型各種姿勢的人類。

畢竟,如果合成數(shù)據(jù)的話需要大量的各種場景和人類動作進行逼真的模擬和渲染,不太現(xiàn)實,并且這種模擬數(shù)據(jù)所訓(xùn)練出來的模型可能也難以遷移到真實場景;如果換用 RGBD(RGB+depth)相機,如 Microsoft 的 Kinect,來記錄真實場景產(chǎn)生數(shù)據(jù),也會受到深度相機本身限制,比如物體材質(zhì)影響反射導(dǎo)致深度值缺失,并且深度相機一般也受限于室內(nèi)場景。

故,風(fēng)靡一時的 Mannequin Challenge 視頻,在此將做出卓越的貢獻。

圖|YouTube 上人體模特挑戰(zhàn)的視頻,視頻中人物以各種姿勢造型靜止,鏡頭劃過整個靜止場景,傳統(tǒng) 3D 重建算法 MVS 計算出所有視頻中的深度值作為訓(xùn)練數(shù)據(jù)集的標注(來源:Tali Dekel,et al./Google AI)

預(yù)測移動人物的深度

但新的問題產(chǎn)生了,人體模特挑戰(zhàn)視頻里人物是靜止的,想要處理移動鏡頭下的移動人物,如何解決?

一個可能的解決方案:從視頻的每一幀來單獨推斷深度值,即僅將單個幀輸入模型。這種方案所訓(xùn)練的模型的確優(yōu)于現(xiàn)有的最佳單圖像深度預(yù)測方法,但考慮多幀圖像提供的信息,模型是否會進一步提升呢?

這就是運動視差。由于透視,從不同位置觀察靜止畫面時,近處物體比遠處物體有更大視差,這種視差信息可以判斷深度信息。因此,研究者引入了每兩幀畫面之間的 2D 光流圖,即兩幀圖像間像素位移信息,來輔助深度預(yù)測。光流(opticalflow)是指空間運動物體在觀察成像平面上的像素的瞬時速度,利用圖像序列中像素在時間上的變化以及相鄰幀之間相關(guān)性,根據(jù)視差原理可以計算出相鄰幀物體的運動信息。

光流一般是由于目標本身的移動、相機的移動或兩者共同運動產(chǎn)生,所以場景深度、相機的相對位置自然會影響光流圖,相機位置是已知的(利用視覺慣性測距得到),故可以得到靜態(tài)場景的初始深度值,但人物同時也在運動,所以在得到初始深度圖時,人物會產(chǎn)生噪音,利用人體切割模型,將人物區(qū)域掩去,剩下的就是靜態(tài)的場景深度信息。故模型輸入為 RGB 圖像、人物掩蔽圖,和利用 SfM 對光流圖計算出的掩蔽人物后的深度圖。

圖|深度預(yù)測網(wǎng)絡(luò)模型的輸入輸出,模型的輸入包括:一張 RGB 圖像(Framet),一張掩去人物的圖像,和一張計算得到的無人物初始深度圖;模型的輸出是 Framet 圖像的深度圖。訓(xùn)練集的深度圖標注是 MVA 方法計算的深度值。(來源:Tali Dekel,et al./Google AI)

最終模型

研究人員最終采用了沙漏模型(hourglass network)的一個變種作為模型結(jié)構(gòu),將最近鄰上采樣層變?yōu)殡p線性上采樣層。沙漏模型一般結(jié)構(gòu)如下,相同顏色的方塊為相同結(jié)構(gòu)的網(wǎng)絡(luò),H是卷積核 3x3 的卷積網(wǎng)絡(luò),所有其他網(wǎng)絡(luò)結(jié)構(gòu)是 Inception Module,Inception Module 是一種區(qū)別于傳統(tǒng)將卷積層串聯(lián),而將 1x1、3x3以及5x5的卷積層進行并聯(lián)的結(jié)構(gòu)。

圖 |沙漏模型(hourgalss network)具體結(jié)構(gòu)。(來源:WeifengChen,et al./University of Michigan)

這個模型可以預(yù)測有移動人類場景的深度,細化其他地方的深度,實現(xiàn)移動人物的去除。由于人體有著大概一致的形狀和物理維度,所以可以通過訓(xùn)練數(shù)據(jù)來先驗地學(xué)習(xí)到這些信息。因此,這個深度預(yù)估模型可以實現(xiàn)對任意移動人類和任意移動相機情況下的深度預(yù)測。

和一些業(yè)界現(xiàn)有最佳深度預(yù)測模型相比,此模型效果優(yōu)越,輸出的深度圖十分完美。

圖 |深度預(yù)測網(wǎng)絡(luò)模型表現(xiàn)對比:上層的 DORN 和 Chen 等人設(shè)計的模型都為單圖深度預(yù)估方法,下層的 DeMoN 為基于立體視覺的方法(來源:Tali Dekel,et al./Google AI)

該深度預(yù)測模型可以在一些視頻中形成3D感知的效果,比如合成散焦。下圖是利用模型將普通視頻合成散焦。

圖 |產(chǎn)生散景視頻特效,視頻由Wind Walk Travel Videos提供。(來源:Tali Dekel,et al./Google AI)

這個模型也可以用于將單目鏡頭視頻變成立體視頻,或者將場景中插入合成的 CG(ComputerGraphics)對象,或者實現(xiàn)一些被遮場景、缺失場景的填充。如下圖,通過利用視頻的其他幀出現(xiàn)的內(nèi)容,模型實現(xiàn)了相機擺動時演員身后領(lǐng)域的填充。

圖 | 填充被遮擋的視頻。(來源:Tali Dekel, et al./Google AI)

這么強大的模型,這么優(yōu)秀的思路,在增強現(xiàn)實、3D 渲染等一些計算機視覺領(lǐng)域自然有其用武之地。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器視覺
    +關(guān)注

    關(guān)注

    163

    文章

    4462

    瀏覽量

    121499
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33025

    瀏覽量

    272835
  • 計算機視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1703

    瀏覽量

    46347

原文標題:計算機視覺領(lǐng)域又一大突破!谷歌 AI 實現(xiàn)對移動鏡頭下移動人物的深度預(yù)測

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏

    評論

    相關(guān)推薦

    機器視覺鏡頭選擇

    和測量方形、圓形和橢圓形物體。提高機器視覺系統(tǒng)的精確度,可以幫助保持統(tǒng)的包裝表面和顏色。盡管照相機、分析軟件和照明對于機器視覺系統(tǒng)都是十分
    發(fā)表于 10-22 15:57

    機器視覺技術(shù)

    實現(xiàn)信息集成,是實現(xiàn)計算機集成制造的基礎(chǔ)技術(shù)個典型的工業(yè)機器視覺系統(tǒng)包括:光源、
    發(fā)表于 01-17 07:56

    想設(shè)計炫酷的移動機器人?視覺定位設(shè)計方案分享給你!

    針對移動機器人的局部視覺定位問題進行了研究。首先通過移動機器視覺定位與目標跟蹤系統(tǒng)求出目標質(zhì)心特征點的位置時間序列, 然后在分析二次成像法獲取目標
    發(fā)表于 06-01 08:00

    【設(shè)計技巧】機器視覺設(shè)計者如何選擇合適的鏡頭

    `為了實現(xiàn)具有成本效益的機器視覺系統(tǒng),開發(fā)人員必須從眾多可用的鏡頭中選擇最合適的產(chǎn)品。 對于機器視覺
    發(fā)表于 07-19 08:30

    CAD圖紙中如何才能在布局模式下移動圖形?

    模式下移動圖形的方法:1、首先打開浩辰CAD軟件,然后切換至【布局1】視圖,當(dāng)前為【布局1】視圖。如下圖所示:2、此時為【圖紙】空間,點擊【圖紙】切換至【模型】。在【模型】空間下畫個矩形,通過該矩形
    發(fā)表于 03-24 14:26

    如何實現(xiàn)移動機器人的設(shè)計?

     移動機器人利用導(dǎo)航技術(shù),獲得機器人的目前所處的位置,結(jié)合傳感器技術(shù)對周圍外界環(huán)境(障礙物等)作實時探測,并根據(jù)環(huán)境提供的信息規(guī)劃條可行路
    發(fā)表于 11-23 15:08

    請問大家在LABVIEW表格控件中,如何實現(xiàn)點擊上移下移按鈕,表格中的數(shù)據(jù)能上下移動

    請問大家在LABVIEW表格控件中,如何實現(xiàn)點擊上移下移按鈕,表格中的數(shù)據(jù)能上下移動
    發(fā)表于 12-01 08:50

    什么是移軸鏡頭

    什么是移軸鏡頭        移動鏡頭光軸調(diào)
    發(fā)表于 02-01 10:56 ?934次閱讀

    PLC的漿液下移動機器人控制系統(tǒng)

    PLC的漿液下移動機器人控制系統(tǒng)   摘要:結(jié)合漿液下移動機器人系統(tǒng)的功能要求及PLC的特點,構(gòu)建了槳液下移動機器人的控制系統(tǒng)。為提高該機器人系統(tǒng)的經(jīng)濟效
    發(fā)表于 04-21 17:58 ?849次閱讀
    PLC的漿液<b class='flag-5'>下移動機器</b>人控制系統(tǒng)

    下移動無線傳感器網(wǎng)絡(luò)拓撲

    論文,水下移動無線傳感器網(wǎng)絡(luò)拓撲_何明,講述的是水下移動無線傳感器網(wǎng)絡(luò)
    發(fā)表于 05-11 18:08 ?20次下載

    移動機器人的視覺算法種類與深度相機傳感器的分類

    等功能,而視覺算法則是實現(xiàn)這些功能關(guān)鍵技術(shù)。 如果對移動機器視覺算法進行拆解,你就會發(fā)現(xiàn)獲取物體深度
    發(fā)表于 09-27 10:37 ?11次下載

    基于視頻深度學(xué)習(xí)的時空雙流人物動作識別模型

    深度學(xué)習(xí)被運用于圖片分類、人物臉部識別和人物位置預(yù)測等識別領(lǐng)域。視頻人物動作識別可看作隨時間變化圖片的分類問題,所以圖片識別的
    發(fā)表于 04-17 10:46 ?0次下載
    基于視頻<b class='flag-5'>深度</b>學(xué)習(xí)的時空雙流<b class='flag-5'>人物</b>動作識別模型

    移動機器人的關(guān)鍵技術(shù)哪些

    導(dǎo)航技術(shù)移動機器人的項核心技術(shù)它是指移動機器人通過傳感器感知環(huán)境信息和自身狀態(tài),
    發(fā)表于 07-20 17:16 ?17次下載
    <b class='flag-5'>移動機器</b>人的關(guān)鍵<b class='flag-5'>技術(shù)</b><b class='flag-5'>有</b>哪些

    深度解析2023年機器視覺行業(yè)的十大預(yù)測

    高工機器人產(chǎn)業(yè)研究所(GGII)通過對機器視覺產(chǎn)業(yè)的梳理,結(jié)合宏觀數(shù)據(jù)和調(diào)研數(shù)據(jù)信息,秉承不悲觀、不樂觀,力求客觀的態(tài)度,深度解析2023年機器
    的頭像 發(fā)表于 11-29 11:18 ?2548次閱讀

    深度解析2023年移動機器人行業(yè)的十大預(yù)測

    高工機器人產(chǎn)業(yè)研究所(GGII)通過對移動機器人產(chǎn)業(yè)的梳理,結(jié)合宏觀數(shù)據(jù)和調(diào)研數(shù)據(jù)信息,秉承不悲觀、不樂觀,力求客觀的態(tài)度,深度解析2023年移動機器人行業(yè)的十大
    發(fā)表于 12-02 11:15 ?819次閱讀
    主站蜘蛛池模板: 性夜影院午夜看片 | 亚洲人成伊人成综合网久久久 | 亚洲精品国产精麻豆久久99 | 荡乳乱公小说 | 午夜深情在线观看免费 | 久久视频精品38在线播放 | 久久婷婷五月综合色丁香 | 大伊人青草狠狠久久 | 国产亚洲精品A久久777777 | 亚欧成人毛片一区二区三区四区 | 奇米狠狠一区二区三区 | 草民电影网午夜伦理电影网 | silk118中文字幕无删减 | 中文字幕一区二区三区在线播放 | 久久精品av| 欧美残忍xxxx极端 | 黑人巨摘花破女处 | 亚洲色婷婷久久精品AV蜜桃 | 果冻传媒在线完整免费播放 | 久久天堂网 | 国产中文字幕乱码免费 | 中字幕久久久人妻熟女天美传媒 | 97视频在线观看免费播放 | 无码11久岁箩筣 | 成人国产AV精品久久久久 | 2022久久精品国产色蜜蜜麻豆 | 亚洲国产精品日本无码网站 | 黄得让人湿的片段 | 国产高清国内精品福利色噜噜 | 久久精品影院永久网址 | 伊人久久国产精品 | 色婷婷激婷婷深爱五月小蛇 | yellow免费观看直播 | 欧美片内射欧美美美妇 | 嫩草AV久久伊人妇女 | 成年人在线免费观看视频网站 | 亚洲精品久久久久无码AV片软件 | 甜性涩爱下载 | 国产伦精品一区二区三区免费 | 热久久综合这里只有精品电影 | 亚洲中文字幕无码一久久区 |

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學(xué)習(xí)
    • 獲取您個性化的科技前沿技術(shù)信息
    • 參加活動獲取豐厚的禮品