色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用自監(jiān)督學(xué)習(xí)重建動(dòng)態(tài)駕駛場(chǎng)景

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2023-12-16 16:05 ? 次閱讀

wKgaomV9W2eACTqvAI2RUKtEaQ8569.gif

無(wú)論是單調(diào)的高速行車(chē),還是平日的短途出行,駕駛過(guò)程往往平淡無(wú)奇。因此,在現(xiàn)實(shí)世界中采集的用于開(kāi)發(fā)自動(dòng)駕駛汽車(chē)(AV)的大部分訓(xùn)練數(shù)據(jù)都明顯偏向于簡(jiǎn)單場(chǎng)景。

這給部署魯棒的感知模型帶來(lái)了挑戰(zhàn)。自動(dòng)駕駛汽車(chē)必須接受全面的訓(xùn)練、測(cè)試和驗(yàn)證,以便能夠應(yīng)對(duì)復(fù)雜的場(chǎng)景,而這需要大量涵蓋此類(lèi)場(chǎng)景的數(shù)據(jù)。

在現(xiàn)實(shí)世界中,收集此類(lèi)場(chǎng)景數(shù)據(jù)要耗費(fèi)大量時(shí)間和成本。而現(xiàn)在,仿真提供了另一個(gè)可選方案。但要大規(guī)模生成復(fù)雜動(dòng)態(tài)場(chǎng)景仍然困難重重。

在近期發(fā)布的一篇論文中,NVIDIA Research 展示了一種基于神經(jīng)輻射場(chǎng)(NeRF)的新方法——EmerNeRF 及其如何使用自監(jiān)督學(xué)習(xí)準(zhǔn)確生成動(dòng)態(tài)場(chǎng)景。通過(guò)自監(jiān)督方法訓(xùn)練,EmerNeRF 在動(dòng)靜態(tài)場(chǎng)景重建上的表現(xiàn)超越了之前其他 NeRF 方法。詳細(xì)情況請(qǐng)參見(jiàn) EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

wKgaomV9W2iAWIQRAIG3gjsjUmk047.gif

wKgaomV9W2qAEBhsAHW-H-Nc2wI223.gif

wKgaomV9W2uADx4ZAGFS9lTdEQ0746.gif

圖 1. EmerNeRF 重建動(dòng)態(tài)駕駛場(chǎng)景的示例

相比其他 NeRF 重建方法,EmerNeRF 的動(dòng)態(tài)場(chǎng)景重建準(zhǔn)確率高出 15%,靜態(tài)場(chǎng)景高出 11%。新視角合成的準(zhǔn)確率也高出 12%。

打破 NeRF 方法的局限性

NeRF 將一組靜態(tài)圖像重建成逼真的 3D 場(chǎng)景。這使得依據(jù)駕駛?cè)罩局亟ㄓ糜?DNN 訓(xùn)練、測(cè)試驗(yàn)證的高保真仿真環(huán)境成為可能。

然而,目前基于 NeRF 的重建方法在處理動(dòng)態(tài)物體時(shí)十分困難,而且實(shí)踐證明難以擴(kuò)展。例如有些方法可以生成靜態(tài)和動(dòng)態(tài)場(chǎng)景,但它們依賴(lài)真值(GT)標(biāo)簽。這就意味著必須使用自動(dòng)標(biāo)注或人工標(biāo)注員先來(lái)準(zhǔn)確標(biāo)注出駕駛?cè)罩局械拿總€(gè)物體。

其他 NeRF 方法則依賴(lài)于額外的模型來(lái)獲得完整的場(chǎng)景信息,例如光流。

為了打破這些局限性,EmerNeRF 使用自監(jiān)督學(xué)習(xí)將場(chǎng)景分解為靜態(tài)、動(dòng)態(tài)和流場(chǎng)(flow fields)。該模型從原始數(shù)據(jù)中學(xué)習(xí)前景、背景之間的關(guān)聯(lián)和結(jié)構(gòu),而不依賴(lài)人工標(biāo)注的 GT 標(biāo)簽。然后,對(duì)場(chǎng)景做時(shí)空渲染,并不依賴(lài)外部模型來(lái)彌補(bǔ)時(shí)空中的不完整區(qū)域,而且準(zhǔn)確性更高。

wKgaomV9W22ANZJBAIreJrPM29Q814.gif

圖 2. EmerNeRF 將圖 1 第一段視頻中的場(chǎng)景分解為動(dòng)態(tài)場(chǎng)、靜態(tài)場(chǎng)和流場(chǎng)

因此,其他模型往往會(huì)產(chǎn)生過(guò)于平滑的背景和精度較低的動(dòng)態(tài)物體(前景),而 EmerNeRF 則能重建高保真的背景及動(dòng)態(tài)物體(前景),同時(shí)保留場(chǎng)景的細(xì)節(jié)。

wKgaomV9W22AEIs2AAHQ9VA5HZs560.png

表 1. 將 EmerNeRF 與其他基于 NeRF 的動(dòng)態(tài)場(chǎng)景重建方法進(jìn)行比較后的評(píng)估結(jié)果,分為場(chǎng)景重建性能和新視角合成性能兩個(gè)類(lèi)別

wKgaomV9W22AfcY9AAA2G6E-KP4237.png

表 2. 將 EmerNeRF 與其他基于 NeRF 的靜態(tài)場(chǎng)景重建方法進(jìn)行比較后的評(píng)估結(jié)果

EmerNeRF 方法

EmerNeRF 使用的是自監(jiān)督學(xué)習(xí),而非人工注釋或外部模型,這使得它能夠避開(kāi)之前方法所遇到的難題。

wKgaomV9W26AEUZHAAIDIitNPLA183.png

圖 3.EmerNeRF 分解和重建管線

EmerNeRF 將場(chǎng)景分解成動(dòng)態(tài)和靜態(tài)元素。在場(chǎng)景分解的同時(shí),EmerNeRF 還能估算出動(dòng)態(tài)物體(如汽車(chē)和行人)的流場(chǎng),并通過(guò)聚合流場(chǎng)在不同時(shí)間的特征以進(jìn)一步提高重建質(zhì)量。其他方法會(huì)使用外部模型提供此類(lèi)光流數(shù)據(jù),但通常會(huì)引入偏差。

通過(guò)將靜態(tài)場(chǎng)、動(dòng)態(tài)場(chǎng)和流場(chǎng)結(jié)合在一起,EmerNeRF 能夠充分表達(dá)高密度動(dòng)態(tài)場(chǎng)景,這不僅提高了重建精度,也方便擴(kuò)展到其他數(shù)據(jù)源。

使用基礎(chǔ)模型加強(qiáng)語(yǔ)義理解

EmerNeRF 對(duì)場(chǎng)景的語(yǔ)義理解,可通過(guò)(視覺(jué))基礎(chǔ)大模型監(jiān)督進(jìn)一步增強(qiáng)。基礎(chǔ)大模型具有更通用的知識(shí)(例如特定類(lèi)型的車(chē)輛或動(dòng)物)。EmerNeRF 使用視覺(jué) Transformer(ViT)模型,例如 DINO, DINOv2,將語(yǔ)義特征整合到場(chǎng)景重建中。

這使 EmerNeRF 能夠更好地預(yù)測(cè)場(chǎng)景中的物體,并執(zhí)行自動(dòng)標(biāo)注等下游任務(wù)。

wKgaomV9W2-AXLGcAEMAJKXvMk4609.gif

圖 4. EmerNeRF 使用 DINO 和 DINOv2 等基礎(chǔ)模型加強(qiáng)對(duì)場(chǎng)景的語(yǔ)義理解

不過(guò),基于 Transformer 的基礎(chǔ)模型也帶來(lái)了新的挑戰(zhàn):語(yǔ)義特征可能會(huì)表現(xiàn)出與位置相關(guān)的噪聲,從而大大限制下游任務(wù)的性能。

wKgaomV9W3CAHehyAD0gOpmySM4007.gif

圖 5. EmerNeRF 使用位置嵌入消除基于 Transformer 的基礎(chǔ)模型所產(chǎn)生的噪聲

為了解決噪聲問(wèn)題,EmerNeRF 通過(guò)位置編碼分解來(lái)恢復(fù)無(wú)噪聲的特征圖。如圖 5 所示,這樣就解鎖了基礎(chǔ)大模型在語(yǔ)義特征上全面、準(zhǔn)確的表征能力。

評(píng)估 EmerNeRF

正如 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision 中所述,研究人員整理出了一個(gè)包含 120 個(gè)獨(dú)特場(chǎng)景的數(shù)據(jù)集來(lái)評(píng)估 EmerNeRF 的性能,這些場(chǎng)景分為 32 個(gè)靜態(tài)場(chǎng)景、32 個(gè)動(dòng)態(tài)場(chǎng)景和 56 個(gè)多樣化場(chǎng)景,覆蓋了高速、低光照等具有挑戰(zhàn)性的場(chǎng)景。

然后根據(jù)數(shù)據(jù)集的不同子集,評(píng)估每個(gè) NeRF 模型重建場(chǎng)景和合成新視角的能力。

如表 1 所示,據(jù)此,EmerNeRF 在場(chǎng)景重建和新視角合成方面的表現(xiàn)始終明顯優(yōu)于其他方法。

EmerNeRF 的表現(xiàn)還優(yōu)于專(zhuān)門(mén)用于靜態(tài)場(chǎng)景的方法,這表明將場(chǎng)景分解為靜態(tài)和動(dòng)態(tài)元素的自監(jiān)督分解既能夠改善靜態(tài)重建,還能夠改善動(dòng)態(tài)重建。

總結(jié)

自動(dòng)駕駛仿真只有在能夠準(zhǔn)確重建現(xiàn)實(shí)世界的情況下才會(huì)有效。隨著場(chǎng)景的日益動(dòng)態(tài)化和復(fù)雜化,對(duì)保真度的要求也越來(lái)越高,而且更難實(shí)現(xiàn)。

與以前的方法相比,EmerNeRF 能夠更準(zhǔn)確地表現(xiàn)和重建動(dòng)態(tài)場(chǎng)景,而且無(wú)需人工監(jiān)督或外部模型。這樣就能大規(guī)模地重建和編輯復(fù)雜的駕駛數(shù)據(jù),解決目前自動(dòng)駕駛汽車(chē)訓(xùn)練數(shù)據(jù)集的不平衡問(wèn)題。

NVIDIA 正迫切希望研究 EmerNeRF 帶來(lái)的新功能,如端到端駕駛、自動(dòng)標(biāo)注和仿真等。

如要了解更多信息,請(qǐng)?jiān)L問(wèn) EmerNeRF 項(xiàng)目頁(yè)面并閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision

了解更多

  • 適用于自動(dòng)駕駛汽車(chē)的解決方案

    https://www.nvidia.cn/self-driving-cars/

  • EmerNeRF 項(xiàng)目頁(yè)面

    https://emernerf.github.io/

  • 閱讀 EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via Self-Supervision.

    https://arxiv.org/abs/2311.02077

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國(guó)加州圣何塞會(huì)議中心舉行,線上大會(huì)也將同期開(kāi)放。點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼,立即注冊(cè) GTC 大會(huì)


原文標(biāo)題:使用自監(jiān)督學(xué)習(xí)重建動(dòng)態(tài)駕駛場(chǎng)景

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3799

    瀏覽量

    91337

原文標(biāo)題:使用自監(jiān)督學(xué)習(xí)重建動(dòng)態(tài)駕駛場(chǎng)景

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    時(shí)空引導(dǎo)下的時(shí)間序列監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個(gè)組織聯(lián)合發(fā)布了一篇時(shí)間序列無(wú)監(jiān)督預(yù)訓(xùn)練的文章,相比原來(lái)的TS2Vec等時(shí)間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?285次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    HarmonyOS NEXT應(yīng)用元服務(wù)開(kāi)發(fā)內(nèi)容動(dòng)態(tài)變化場(chǎng)景

    適用場(chǎng)景:界面上重要內(nèi)容在動(dòng)態(tài)變化后,需要實(shí)時(shí)發(fā)送變化后的朗讀內(nèi)容 說(shuō)明:如果界面上內(nèi)容發(fā)生動(dòng)態(tài)變化且其內(nèi)容對(duì)用戶(hù)具有必要的提示/告知/指導(dǎo)作用,則其發(fā)生變化后需對(duì)其變化內(nèi)容進(jìn)行朗讀,可調(diào)用無(wú)障礙
    發(fā)表于 10-29 10:52

    連數(shù)字化健康管理方案應(yīng)用全場(chǎng)景

    連智能終端產(chǎn)品系列中,有 兩款 藍(lán)牙網(wǎng)關(guān)是動(dòng)態(tài)健康管理的理想解決方案。 DGW412網(wǎng)關(guān) 藍(lán)牙轉(zhuǎn)4G數(shù)據(jù)傳輸功能 ??適用于佩戴動(dòng)態(tài)監(jiān)測(cè)設(shè)備進(jìn)行較大范圍移動(dòng),數(shù)據(jù)需要穩(wěn)定傳輸?shù)?b class='flag-5'>場(chǎng)景
    的頭像 發(fā)表于 09-09 18:29 ?976次閱讀
    <b class='flag-5'>自</b>連數(shù)字化健康管理方案應(yīng)用全<b class='flag-5'>場(chǎng)景</b>

    神經(jīng)重建在自動(dòng)駕駛模擬中的應(yīng)用

    AD和ADAS系統(tǒng)需要在能代表真實(shí)世界的3D環(huán)境條件下,依靠閉環(huán)驗(yàn)證確保安全性和性能,然而手工構(gòu)建的3D環(huán)境很難解決Sim2Real的差距并且在可擴(kuò)展方面存在一定的局限性。為此康謀為您介紹神經(jīng)重建如何打破限制,在自動(dòng)駕駛模擬中的具體應(yīng)用。
    的頭像 發(fā)表于 08-21 10:03 ?1029次閱讀
    神經(jīng)<b class='flag-5'>重建</b>在自動(dòng)<b class='flag-5'>駕駛</b>模擬中的應(yīng)用

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語(yǔ)法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語(yǔ)言的深層次理解,如文化背景、語(yǔ)境含義和情感色彩等。 監(jiān)督學(xué)習(xí):模型采用
    發(fā)表于 08-02 11:03

    基于大模型的仿真系統(tǒng)研究一——三維重建大模型

    問(wèn)題,賽目推出了基于大模型的仿真系統(tǒng),利用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能技術(shù),不僅推出自動(dòng)標(biāo)注大模型、多模態(tài)檢測(cè)大模型和場(chǎng)景生成大模型等模塊,并且引入三維重建大模型加強(qiáng)渲染畫(huà)面真實(shí)性。
    的頭像 發(fā)表于 07-30 14:51 ?1692次閱讀
    基于大模型的仿真系統(tǒng)研究一——三維<b class='flag-5'>重建</b>大模型

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類(lèi):有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用無(wú)監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無(wú)監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無(wú)監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方式對(duì)于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?844次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、聚類(lèi)算法等,并分析它們的原理、應(yīng)用
    的頭像 發(fā)表于 07-09 10:50 ?828次閱讀

    標(biāo)貝數(shù)據(jù)采集標(biāo)注在自動(dòng)駕駛場(chǎng)景中落地應(yīng)用實(shí)例

    AI數(shù)據(jù)服務(wù)作為人工智能和機(jī)器學(xué)習(xí)的基礎(chǔ),在自動(dòng)駕駛領(lǐng)域中有著重要地位。與其他人工智能應(yīng)用場(chǎng)景相比,自動(dòng)駕駛的落地場(chǎng)景相對(duì)復(fù)雜,想要讓汽車(chē)本
    的頭像 發(fā)表于 05-28 14:22 ?623次閱讀
    標(biāo)貝數(shù)據(jù)采集標(biāo)注在自動(dòng)<b class='flag-5'>駕駛</b><b class='flag-5'>場(chǎng)景</b>中落地應(yīng)用實(shí)例

    康謀分享 | aiSim5仿真場(chǎng)景重建感知置信度評(píng)估(三)

    aiSim5能重建高精度的賽道、車(chē)庫(kù)、高速公路等真實(shí)交通場(chǎng)景,用于測(cè)試和訓(xùn)練ADAS/AD系統(tǒng)。通過(guò)全局行動(dòng)日志,能將駕駛數(shù)據(jù)轉(zhuǎn)化為場(chǎng)景重建
    的頭像 發(fā)表于 05-08 16:59 ?2451次閱讀
    康謀分享 | aiSim5仿真<b class='flag-5'>場(chǎng)景</b><b class='flag-5'>重建</b>感知置信度評(píng)估(三)

    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    為了使用三維運(yùn)動(dòng)先驗(yàn)正則化估計(jì)的三維軌跡,模型另外預(yù)測(cè)了每條軌跡的剛性嵌入,這使能夠軟地分組表現(xiàn)出相同剛性體運(yùn)動(dòng)的像素,并為每個(gè)剛性集群強(qiáng)制執(zhí)行ARAP正則化。作者證明了剛性嵌入可以通過(guò)監(jiān)督學(xué)習(xí),并產(chǎn)生不同剛性部分的合理分割。
    的頭像 發(fā)表于 04-13 12:12 ?1274次閱讀
    CVPR&apos;24 Highlight!跟蹤3D空間中的一切!

    機(jī)器學(xué)習(xí)基礎(chǔ)知識(shí)全攻略

    監(jiān)督學(xué)習(xí)通常是利用帶有專(zhuān)家標(biāo)注的標(biāo)簽的訓(xùn)練數(shù)據(jù),學(xué)習(xí)一個(gè)從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓(xùn)練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓(xùn)練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?264次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>基礎(chǔ)知識(shí)全攻略

    OpenAI推出Sora:AI領(lǐng)域的革命性突破

    大模型的核心技術(shù)是自然語(yǔ)言處理(NLP)和深度學(xué)習(xí)。具體而言,它基于Transformer架構(gòu),使用了大規(guī)模無(wú)監(jiān)督學(xué)習(xí)方法,例如回歸語(yǔ)言建模和掩碼語(yǔ)言建模,來(lái)訓(xùn)練一個(gè)龐大的神經(jīng)網(wǎng)絡(luò)模型。
    發(fā)表于 02-21 16:36 ?1027次閱讀
    OpenAI推出Sora:AI領(lǐng)域的革命性突破

    2024年AI領(lǐng)域?qū)?huì)有哪些新突破呢?

    傳統(tǒng)的機(jī)器學(xué)習(xí)需要大量的標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,但監(jiān)督學(xué)習(xí)可以通過(guò)無(wú)監(jiān)督的方式從大規(guī)模未標(biāo)記的數(shù)據(jù)中學(xué)習(xí)到更有用的表示形式,從而提高模型的性能。
    的頭像 發(fā)表于 01-24 09:58 ?2039次閱讀
    主站蜘蛛池模板: 中文字幕精品在线视频| 九九久久精品| a级老头和老太xxxx| md2.pud 麻豆传媒官网| 国产69精品9999XXXX| 果冻传媒我的女老板| 久久青青草原| 强奷乱码欧妇女中文字幕熟女| 色人阁影视| 亚洲性夜色噜噜噜网站2258KK| 18女下面流水不遮网站免费| 把腿张开再深点好爽宝贝| 国产欧美国产综合第一区| 久久国产乱子伦精品免费M| 男女生爽爽爽视频免费观看| 日日干夜夜艹| 夜夜草导航| bbwvideos欧美老妇| 国产精品爽爽久久久久久蜜桃| 久草网国产自偷拍| 肉耽高h一受n攻| 伊人色综合久久大香| 啊片色播电影| 久久视频精品38在线播放| 午夜伦4480yy妇女久久| 中文字幕在线观看网站| 沟沟人体一区二区| 免费黄色网址在线观看| 亚洲麻豆精品成人A在线观看| 97成人碰碰在线人妻少妇| 国产69精品9999XXXX| 免费鲁丝片一级在线观看| 亚洲色综合中文字幕在线| 国产精品JIZZ视频免费| 美娇妻的性奴史1一4| 无码AV免费精品一区二区三区| 亚洲综合中文字幕无线码| 国产九九熟女在线视频| 青青草原91| 99re久久精品在线播放| 国内精品国内自产视频|