在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

浙大團(tuán)隊(duì)研發(fā)基于單目視頻的三維場(chǎng)景重建框架NeuralRecon

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-05-11 10:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近,iPadiPhone 上的 LiDAR 有了新玩法,Apple Clips 應(yīng)用程序中更新了基于三維重建的 AR 空間特效。通過 Clips 3.1 的 AR 空間功能,用戶只需用帶有 LiDAR 傳感器的 iPad Pro 或 iPhone Pro 在房間中進(jìn)行掃描和重建,就能為拍攝的視頻中添加絢麗的 AR 效果。

比如跟著 AR 投射出來的燈光跳舞;

再比如用 Star Walk 2 的 AR 功能,足不出戶在房間屋頂上觀看星座。

不過要實(shí)現(xiàn)上述視頻中的效果,需要 iPad 和 iPhone 高端型號(hào)上配備的 LiDAR 深度傳感器,而使用浙江大學(xué)-商湯三維視覺聯(lián)合實(shí)驗(yàn)室所提出的方法,希望能讓普通手機(jī)的單目攝像頭也可實(shí)現(xiàn)上述效果。

實(shí)驗(yàn)室成員周曉巍接受了我們的采訪。他是國(guó)內(nèi)計(jì)算機(jī)視覺領(lǐng)域青年學(xué)者、也是浙江大學(xué)計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室的“百人計(jì)劃” 研究員和博士生導(dǎo)師。幾年前,在結(jié)束美國(guó)賓夕法尼亞大學(xué) GRASP 機(jī)器人實(shí)驗(yàn)室的博士后研究后,回到母校任教。他告訴 DeepTech:“目前我們跟商湯、華為都有非常緊密的合作,通過這種產(chǎn)學(xué)研的結(jié)合,我們的研究成果既有對(duì)學(xué)術(shù)前沿的探索,又能根據(jù)實(shí)際需求去攻克一些技術(shù)瓶頸。與此同時(shí),國(guó)內(nèi)的 3D 視覺領(lǐng)域還處于新興發(fā)展階段,也需要我們回來一起把這個(gè)方向給發(fā)展壯大起來,不斷縮短與國(guó)際領(lǐng)先水平之間的差距。”

周曉巍所在的團(tuán)隊(duì)提出了一種基于單目視頻的三維場(chǎng)景重建框架 NeuralRecon。在實(shí)時(shí) (25 FPS) 的速度下,使用該方法可高質(zhì)量地重建三維場(chǎng)景。對(duì)比結(jié)果顯示,在 ScanNet、7-Scenes 等數(shù)據(jù)集上,NeuralRecon 的速度和精度均大幅領(lǐng)先以往方法。該工作將發(fā)表于今年的計(jì)算機(jī)視覺頂級(jí)會(huì)議 CVPR,并錄用為口頭報(bào)告。

據(jù)其表示,NeuralRecon 提出了用神經(jīng)網(wǎng)絡(luò)、直接回歸基于 TSDF 表示的局部三維表面,并能使用基于 GRU 的 TSDF 融合模塊,來融合歷史局部表面的特征。這樣設(shè)計(jì)的好處是,網(wǎng)絡(luò)不僅能直接學(xué)習(xí)到三維表面的局部光滑性先驗(yàn)并借此實(shí)現(xiàn)準(zhǔn)確且一致的重建,還可以減少以往方法中重復(fù)冗余的計(jì)算量,在保持質(zhì)量的前提下實(shí)現(xiàn)實(shí)時(shí)的重建。據(jù)該團(tuán)隊(duì)所知,這是首個(gè)基于深度學(xué)習(xí)方法、并能實(shí)時(shí)重建稠密且一致三維表面的系統(tǒng)。

問題和挑戰(zhàn):基于圖像的實(shí)時(shí)場(chǎng)景的三維重建依然任重道遠(yuǎn)

一直以來,稠密場(chǎng)景重建都是三維視覺的核心問題,在增強(qiáng)現(xiàn)實(shí)(AR)等應(yīng)用中,扮演著重要角色。在 AR 應(yīng)用中,要想實(shí)現(xiàn)真實(shí)、沉浸式的虛實(shí)融合體驗(yàn),就需要正確處理真實(shí)場(chǎng)景和虛擬的AR物體之間的遮擋關(guān)系,并對(duì)陰影等效果做出正確的渲染,如此才能實(shí)現(xiàn)合理的虛擬內(nèi)容放置、以及它和與真實(shí)場(chǎng)景的交互。概括來說,要想實(shí)現(xiàn)這些效果,都得對(duì)場(chǎng)景進(jìn)行實(shí)時(shí)且精確的三維重建。

三維重建需要依賴精確的六自由度相機(jī)位姿估計(jì)。最近幾年,視覺慣性 SLAM 逐漸成熟,且已得到大范圍的落地應(yīng)用。ARKit 和 ARCore 等 AR 框架的出現(xiàn),讓多數(shù)智能手機(jī)都能準(zhǔn)確跟蹤其自身六自由度的姿態(tài)。

然而,基于圖像的實(shí)時(shí)場(chǎng)景的三維重建依然任重道遠(yuǎn)。目前常用的三維重建方案如 KinectFusion、BundleFusion 等,非常依賴深度傳感器提供的深度測(cè)量。但是,由于深度傳感器價(jià)格昂貴、功耗也比較高,因此其普及程度依然較低,通常只有少數(shù)高端型號(hào)的移動(dòng)設(shè)備才舍得配備。因此,使用單目多視角圖像去實(shí)現(xiàn)實(shí)時(shí)三維重建,具有非常大的應(yīng)用前景。在不增加傳感器的前提下,它可直接用在現(xiàn)有智能設(shè)備中。

而在基于多視角圖像的三維重建方法中,基于深度圖融合的方法非常流行。可是,這種方法存在兩個(gè)問題:

第一,其中有大量重復(fù)計(jì)算,從相鄰幀之間,可以看到相鄰區(qū)域中有大面積的重合,同一區(qū)域的深度則會(huì)被計(jì)算多次,這會(huì)帶來計(jì)算量上的冗余;第二,即便相鄰兩幀能看到的區(qū)域有較大重合,每一幀深度圖的計(jì)算卻都得重新開始,而非基于之前相鄰幀的深度預(yù)測(cè)結(jié)果。

如下圖所示,這會(huì)導(dǎo)致計(jì)算出來的相鄰兩幀的深度圖不一致,重建的結(jié)果也因此常會(huì)非常分散,甚至?xí)a(chǎn)生分層。

5f90f53a-b178-11eb-bf61-12bb97331649.png

圖 | 基于深度圖融合方法的重建效果

NeuralRecon:新型三維場(chǎng)景重建框架

為解決上述痛點(diǎn),該團(tuán)隊(duì)提出這一新型三維場(chǎng)景重建框架 NeuralRecon,下圖展示了它的算法流程。這是一個(gè)輕量級(jí)的實(shí)時(shí)端到端系統(tǒng),可直接從已知相機(jī)位姿的多視角圖像中,重建基于稀疏 TSDF 表示的三維場(chǎng)景幾何信息。

NeuralRecon 主要有如下兩個(gè)步驟,第一步是關(guān)鍵幀的選擇。

關(guān)鍵幀選擇的目的,是為了在提供足夠運(yùn)動(dòng)視差的同時(shí),還能保持多視角的共視關(guān)系,因此所選關(guān)鍵幀之間的距離,不能太近也不能太遠(yuǎn)。具體來說, 假如一個(gè)新傳入的幀和上一個(gè)關(guān)鍵幀的相對(duì)平移大于 t [max],并且相對(duì)旋轉(zhuǎn)角度大于 R [max],那么就可選擇該幀作為關(guān)鍵幀。而具備 N 個(gè)關(guān)鍵幀的窗口,可被定義為一個(gè)片段。

第二步是聯(lián)合片段重建和融合,其中涉及三個(gè)分步驟。

第一個(gè)分步驟是圖片特征提取和反投影,這里指的是某個(gè)視頻片段中的 N 張圖片,最初會(huì)通過一個(gè) CNN 網(wǎng)絡(luò)來提取多個(gè)分辨率下的圖像深度特征。而圖片特征會(huì)反投影到三維空間中,得到三維特征體。

第二個(gè)分步驟是從粗到細(xì)的三維場(chǎng)景重建。采取從粗到細(xì)的方式,分階段地預(yù)測(cè)并細(xì)化場(chǎng)景的幾何信息。在每個(gè)階段中,稀疏三維卷積神經(jīng)網(wǎng)絡(luò)會(huì)被用來處理三維特征體,最終通過一個(gè)多層感知機(jī) (MLP),獲悉占有分?jǐn)?shù) (Occupancy score) 和 TSDF 值。

其中,占有分?jǐn)?shù)代表著三維特征體中體素在 TSDF 截?cái)嗑嚯x之內(nèi)的概率。在每個(gè)階段的最后,占有分?jǐn)?shù)小于閾值的體素,都會(huì)被定為空、并會(huì)被除掉。而在稀疏化之后,稀疏三維特征體會(huì)被上采樣。下圖是稀疏 TSDF 表示的可視化。

圖 | 稀疏 TSDF 表示示意圖

第三個(gè)分步驟是基于 GRU 的融合,這一步的目的,在于讓片段的重建之間得以保持一致,希望當(dāng)前片段的重建可建立在歷史片段重建結(jié)果的基礎(chǔ)上。

具體來說,該方法提出了一個(gè)基于 GRU 的聯(lián)合重建與融合模塊。在每個(gè)階段,三維特征體都會(huì)首先通過一個(gè)三維稀疏卷積,并進(jìn)行三維幾何特征提取。然后,三維幾何特征會(huì)被輸入進(jìn) GRU 聯(lián)合重建與融合模塊。該模塊會(huì)將三維幾何特征與在歷史片段重建中獲得的隱變量進(jìn)行融合,并通過一個(gè)全局感知機(jī)回歸 TSDF 和占有分?jǐn)?shù)。

直觀地說,這里的 GRU 作為一種基于學(xué)習(xí)的選擇性注意機(jī)制,可取代傳統(tǒng) TSDF 融合中的線性操作。在后續(xù)的步驟中,因?yàn)镚RU 進(jìn)行了聯(lián)合重建與融合的操作,所以會(huì)直接將回歸的 TSDF 替換對(duì)應(yīng)區(qū)域的全局 TSDF,最終的重建結(jié)果可以從更新后的全局 TSDF 中通過 Marching Cubes 算法獲得。

兩大優(yōu)勢(shì):重建結(jié)果具有一致性、重建過程用時(shí)更短

根據(jù)實(shí)驗(yàn)結(jié)果,作者們做出了可視效果的對(duì)比圖。

對(duì)比可知,相比較傳統(tǒng)的基于深度圖的方法,NeuralRecon 主要有兩方面優(yōu)勢(shì):

其一,重建結(jié)果具有一致性;其二,重建過程用時(shí)更短。

作者們?cè)?ScanNet 數(shù)據(jù)集上,將本次方法和當(dāng)前最好的方法做定量對(duì)比。對(duì)比發(fā)現(xiàn),本次方法在 F-score 上和速度上,都能超過此前方法,并能做到實(shí)時(shí)且精確的估計(jì)。

與此前最快的方法 MVDepthNet 比較,本次方法不僅速度略有領(lǐng)先,F(xiàn)-score 也從 0.329 提到了 0.562。相比此前精度最高的方法 COLMAP,本次方法在精度稍勝一籌的情況下,處理每個(gè)關(guān)鍵幀所需時(shí)間也從 2076ms 降至 30ms。

結(jié)語:NeuralRecon 為基于深度學(xué)習(xí)的三維感知系統(tǒng)打開新的可能性

概括來說,NeuralRecon 的核心思想,在于對(duì)每個(gè)視頻片段的可視區(qū)域進(jìn)行增量式的聯(lián)合重建和聯(lián)合融合。這個(gè)設(shè)計(jì)讓 NeuralRecon 能實(shí)時(shí)輸出精確、且具有一致性的三維表面。

展望未來,使用 NeuralRecon 重建的稀疏 TSDF 表示能直接用于三維語義分割、三維目標(biāo)檢測(cè)和可微渲染等下游任務(wù)。借助與下游任務(wù)的端到端聯(lián)合訓(xùn)練,NeuralRecon 可為基于深度學(xué)習(xí)的三維感知系統(tǒng)提供出新的可能性。

原文標(biāo)題:浙大團(tuán)隊(duì)研發(fā)新型三維重建框架NeuralRecon,是首個(gè)基于深度學(xué)習(xí)的實(shí)時(shí)單目三維場(chǎng)景重建系統(tǒng) | 專訪

文章出處:【微信公眾號(hào):DeepTech深科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Ar
    Ar
    +關(guān)注

    關(guān)注

    25

    文章

    5154

    瀏覽量

    172524
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5560

    瀏覽量

    122750

原文標(biāo)題:浙大團(tuán)隊(duì)研發(fā)新型三維重建框架NeuralRecon,是首個(gè)基于深度學(xué)習(xí)的實(shí)時(shí)單目三維場(chǎng)景重建系統(tǒng) | 專訪

文章出處:【微信號(hào):deeptechchina,微信公眾號(hào):deeptechchina】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    航天宏圖全棧式3DGS實(shí)景三維重建系統(tǒng)解決方案

    “實(shí)景三維中國(guó)”作為國(guó)家推進(jìn)數(shù)字中國(guó)建設(shè)、提升空間地理信息服務(wù)能力的重要戰(zhàn)略性工程,正在深度融入低空經(jīng)濟(jì)、智能交通、智慧城市、數(shù)字文旅和應(yīng)急指揮等關(guān)鍵領(lǐng)域。三維重建是實(shí)現(xiàn)真實(shí)世界“實(shí)景三維”數(shù)字化
    的頭像 發(fā)表于 06-27 09:28 ?168次閱讀
    航天宏圖全棧式3DGS實(shí)景<b class='flag-5'>三維重建</b>系統(tǒng)解決方案

    激光三維掃描技術(shù):無噴粉條件下高反光表面三維重建的光學(xué)原理與應(yīng)用

    高反光表面的三維重建是工業(yè)檢測(cè)、文化遺產(chǎn)保護(hù)等領(lǐng)域的關(guān)鍵技術(shù)瓶頸。傳統(tǒng)激光掃描依賴噴粉增強(qiáng)漫反射,但會(huì)對(duì)精密器件或文物造成不可逆損傷。本文通過融合結(jié)構(gòu)光調(diào)制、偏振分析及多視角協(xié)同技術(shù),構(gòu)建無噴粉測(cè)量
    的頭像 發(fā)表于 06-25 10:19 ?102次閱讀

    使用DLP LightCrafter4500投影結(jié)構(gòu)光進(jìn)行三維重建遇到的疑問求解

    使用DLP LightCrafter4500 投影結(jié)構(gòu)光進(jìn)行三維重建,遇到以下問題: (1)投影自己的圖片,如何使投影出的圖片和原圖片的亮度一致。它是可以設(shè)定LED的亮度,我投影出來的圖片亮度很
    發(fā)表于 03-03 06:29

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用十分廣泛,為醫(yī)療診斷、治療及手術(shù)規(guī)劃等提供了重要的技術(shù)支持。以下是對(duì)三維測(cè)量在醫(yī)療領(lǐng)域應(yīng)用的分析: 一、醫(yī)學(xué)影像的三維重建與分析 CT、MRI等影像的三維重建
    的頭像 發(fā)表于 12-30 15:21 ?663次閱讀

    三維測(cè)量技術(shù)在工業(yè)中的應(yīng)用

    中不可或缺的一部分。 一、三維測(cè)量技術(shù)的工作原理 三維測(cè)量技術(shù),也稱為三維掃描技術(shù),是一種通過捕捉物體表面點(diǎn)的三維坐標(biāo)信息來重建物體
    的頭像 發(fā)表于 12-30 15:01 ?665次閱讀

    三維掃描與建模的區(qū)別 三維掃描在工業(yè)中的應(yīng)用

    三維掃描與建模的區(qū)別 三維掃描與建模是兩種不同的技術(shù),它們?cè)诓僮鬟^程、輸出結(jié)果及應(yīng)用領(lǐng)域上存在顯著的區(qū)別。 操作過程 : 三維掃描 :主要通過激光或光學(xué)掃描設(shè)備,獲取實(shí)物表面的形狀、紋理信息等
    的頭像 發(fā)表于 12-19 14:55 ?1086次閱讀

    CASAIM與東北大學(xué)達(dá)成合作,三維掃描技術(shù)助力異形建材模型重建及尺寸精準(zhǔn)分析

    近期,CASAIM與東北大學(xué)攜手合作,以三維掃描技術(shù)為核心,為異形建材模型重建及尺寸精準(zhǔn)分析提供有力支持,共同推進(jìn)異形建材領(lǐng)域的應(yīng)用與發(fā)展。
    的頭像 發(fā)表于 11-13 15:11 ?457次閱讀
    CASAIM與東北大學(xué)達(dá)成合作,<b class='flag-5'>三維</b>掃描技術(shù)助力異形建材模型<b class='flag-5'>重建</b>及尺寸精準(zhǔn)分析

    CASAIM與邁普醫(yī)學(xué)達(dá)成合作,三維掃描技術(shù)助力醫(yī)療輔具實(shí)現(xiàn)高精度三維建模和偏差比對(duì)

    近期,CASAIM與廣州邁普再生醫(yī)學(xué)科技股份有限公司(簡(jiǎn)稱:邁普醫(yī)學(xué))合作,基于CT數(shù)據(jù)三維重建和設(shè)計(jì),在醫(yī)療輔具研究開發(fā)中實(shí)現(xiàn)高精度三維建模和偏差比對(duì),實(shí)現(xiàn)與缺損區(qū)域的精確匹配。
    的頭像 發(fā)表于 11-12 14:48 ?514次閱讀

    建筑物邊緣感知和邊緣融合的多視圖立體三維重建方法

    航空建筑深度估計(jì)是三維數(shù)字城市重建中的一項(xiàng)重要任務(wù),基于深度學(xué)習(xí)的多視圖立體(MVS)方法在該領(lǐng)域取得了較好的成果。目前的主要方法通過修改MVS 框架實(shí)現(xiàn)建筑物的深度估計(jì),缺乏對(duì)建筑物內(nèi)在結(jié)構(gòu)的考慮,易導(dǎo)致精度不足等問題。
    的頭像 發(fā)表于 11-07 10:16 ?909次閱讀
    建筑物邊緣感知和邊緣融合的多視圖立體<b class='flag-5'>三維重建</b>方法

    數(shù)字孿生三維可視化場(chǎng)景如何搭建?

    數(shù)字孿生 三維可視化 場(chǎng)景是一種強(qiáng)大的工具,能夠幫助我們模擬和展示現(xiàn)實(shí)世界中的復(fù)雜環(huán)境和系統(tǒng)。從數(shù)據(jù)采集到交互設(shè)計(jì),通過一系列步驟,可以有效地搭建出逼真動(dòng)態(tài)的數(shù)字孿生三維場(chǎng)景。 數(shù)據(jù)采
    的頭像 發(fā)表于 11-06 14:40 ?589次閱讀

    3D ToF三維場(chǎng)景距離(景深)測(cè)量系統(tǒng)簡(jiǎn)介

    電子發(fā)燒友網(wǎng)站提供《3D ToF三維場(chǎng)景距離(景深)測(cè)量系統(tǒng)簡(jiǎn)介.pdf》資料免費(fèi)下載
    發(fā)表于 09-29 10:55 ?0次下載
    3D ToF<b class='flag-5'>三維</b><b class='flag-5'>場(chǎng)景</b>距離(景深)測(cè)量系統(tǒng)簡(jiǎn)介

    留形科技借助NVIDIA平臺(tái)提供高效精確的三維重建解決方案

    本案例中,留形科技借助 NVIDIA Jetson 和 Omniverse 平臺(tái),實(shí)現(xiàn)邊緣設(shè)備上的實(shí)時(shí)、全彩、無損三維重建,從而在建筑細(xì)節(jié)捕捉、大型基礎(chǔ)設(shè)施的數(shù)字孿生等應(yīng)用中,大幅提升三維數(shù)據(jù)采集與處理的效率與精度。
    的頭像 發(fā)表于 09-09 09:42 ?1010次閱讀

    泰來三維|三維掃描技術(shù)在虛擬博物館建設(shè)中的應(yīng)用

    模型修復(fù)與著色:基于三維掃描數(shù)據(jù),使用3D建模軟件進(jìn)行模型的修復(fù)、細(xì)化,并添加真實(shí)的紋理和顏色,使模型更加逼真。場(chǎng)景構(gòu)建:根據(jù)歷史資料和考古發(fā)現(xiàn),構(gòu)建古代遺址、宮殿、城市等場(chǎng)景三維
    的頭像 發(fā)表于 07-31 11:00 ?843次閱讀

    基于大模型的仿真系統(tǒng)研究一——三維重建大模型

    問題,賽目推出了基于大模型的仿真系統(tǒng),利用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能技術(shù),不僅推出自動(dòng)標(biāo)注大模型、多模態(tài)檢測(cè)大模型和場(chǎng)景生成大模型等模塊,并且引入三維重建大模型加強(qiáng)渲染畫面真實(shí)性。 ? ?通過上述模塊,賽目的路采
    的頭像 發(fā)表于 07-30 14:51 ?2621次閱讀
    基于大模型的仿真系統(tǒng)研究一——<b class='flag-5'>三維重建</b>大模型

    泰來三維 三維掃描在文物保護(hù)中的應(yīng)用場(chǎng)景

    文物保護(hù)在多個(gè)方面都有應(yīng)用場(chǎng)景,包括利用先進(jìn)三維掃描技術(shù)手段進(jìn)行文物展示和保護(hù),通過專業(yè)教育和培訓(xùn)培養(yǎng)文物保護(hù)人才,以及在實(shí)際保護(hù)工作中遵循一系列重要的原則和方法,結(jié)合現(xiàn)代科技,不僅能夠提升觀眾的參觀體驗(yàn),還能有效地保護(hù)文物,傳承歷史文化遺產(chǎn),泰來
    的頭像 發(fā)表于 07-24 10:37 ?701次閱讀
    泰來<b class='flag-5'>三維</b> <b class='flag-5'>三維</b>掃描在文物保護(hù)中的應(yīng)用<b class='flag-5'>場(chǎng)景</b>
    主站蜘蛛池模板: 欧美怡红院免费全视频 | 久久午夜神器 | 色黄在线观看 | 国产免费卡1卡2卡 | 在线精品视频成人网 | 永久在线观看 | 国产一区二区三区欧美精品 | 欧美性妇 | 亚洲第一成网站 | 国产三a级日本三级日产三级 | 国产在线精品观看 | 日本一级大片 | 日本高清午夜色wwwσ | 伊人久久大线蕉香港三级 | 午夜社区| 国产内地激情精品毛片在线一 | 成人午夜亚洲影视在线观看 | 丁香综合五月 | 激情五月播播 | 欧美日韩一区二区视频图片 | 69日本人xxxx16-18| 女人张开腿让男人捅爽 | 久久精品影院永久网址 | 亚洲午夜精品久久久久久成年 | 东京加勒比 | 黄色在线| 女性一级全黄生活片 | 四虎影院大全 | 色多多拼多多网站 | 国产理论视频在线观看 | 精品视频一二三区 | 色秀视频免费网站在线观看 | 18岁女人毛片 | 日本高清视频在线www色 | 国内自拍网红在综合图区 | 欧美黄色xxx | 4438x成人网最大色成网站 | 夜夜春宵翁熄性放纵古代 | 日本成人小视频 | 日本成人一级片 | 日本三级特黄 |