91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IROS'23開(kāi)源,nuScenes跟蹤第一!無(wú)需學(xué)習(xí)的超強(qiáng)多目標(biāo)跟蹤!

3D視覺(jué)工坊 ? 來(lái)源:3DCV ? 2023-11-20 16:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

多目標(biāo)跟蹤的作用是獲取目標(biāo)在整個(gè)圖像/LiDAR序列上的完整軌跡和狀態(tài),這兩年在SLAM、導(dǎo)航、規(guī)劃任務(wù)上應(yīng)用很多。多目標(biāo)跟蹤的基本框架就是預(yù)測(cè)+關(guān)聯(lián),很多MOT使用學(xué)習(xí)方法進(jìn)行預(yù)測(cè),但是計(jì)算量很大。實(shí)時(shí)方法一般使用卡爾曼濾波進(jìn)行狀態(tài)更新,但會(huì)受限于選擇的是勻速模型還是勻加速模型。

筆者最近閱讀了IROS 2023的開(kāi)源方案Poly-MOT,來(lái)源于哈工大機(jī)器人國(guó)重實(shí)驗(yàn)室。這個(gè)方案也是基于EKF進(jìn)行更新,但是為不同目標(biāo)建立了不同的物理模型,實(shí)現(xiàn)了nuScenues上的跟蹤SOTA效果。因?yàn)闆](méi)有使用學(xué)習(xí)方案,也就不需要GPU,降低了硬件要求。

今天筆者將為大家分享這項(xiàng)工作,當(dāng)然筆者水平有限,如果有理解不當(dāng)?shù)牡胤綒g迎大家一起討論~

1、效果展示

Poly-MOT跟蹤效果的直接對(duì)比,也體現(xiàn)了文章的核心思想,就是為不同類(lèi)別建立不同的運(yùn)動(dòng)模型。汽車(chē)使用他們?cè)O(shè)計(jì)的CTRA模型,摩托車(chē)使用他們?cè)O(shè)計(jì)的Bicycle模型,CA表示勻速模型。可以發(fā)現(xiàn)引入專(zhuān)用模型后的跟蹤軌跡明顯變好了。

8f0fc460-86a7-11ee-939d-92fbcf53809c.png

Poly-MOT和CBMOT的跟蹤性能對(duì)比,Poly-MOT對(duì)于小目標(biāo)和密集目標(biāo)的跟蹤魯棒性更高。CBMOT是2021 IROS提出的相機(jī)-雷達(dá)融合方案,同時(shí)使用了CenterPoint和CenterTrack兩個(gè)檢測(cè)器。

8f30726e-86a7-11ee-939d-92fbcf53809c.png

代碼已經(jīng)開(kāi)源了,感興趣的小伙伴可以實(shí)際運(yùn)行一下。

2、導(dǎo)讀

三維多目標(biāo)跟蹤(MOT)通過(guò)提供周?chē)矬w的運(yùn)動(dòng)軌跡,使移動(dòng)機(jī)器人能夠完成明智的運(yùn)動(dòng)規(guī)劃和導(dǎo)航任務(wù)。然而,現(xiàn)有的3D MOT方法通常采用單個(gè)相似性度量和物理模型來(lái)對(duì)所有對(duì)象執(zhí)行數(shù)據(jù)關(guān)聯(lián)和狀態(tài)估計(jì)。在大規(guī)模現(xiàn)代數(shù)據(jù)集和真實(shí)場(chǎng)景中,有各種各樣的對(duì)象類(lèi)別,它們通常表現(xiàn)出獨(dú)特的幾何屬性和運(yùn)動(dòng)模式。這樣,這種區(qū)分將使各種物體類(lèi)別在同一標(biāo)準(zhǔn)下表現(xiàn)不同,導(dǎo)致軌跡和探測(cè)之間的錯(cuò)誤匹配,并危及下游任務(wù)(導(dǎo)航等)的可靠性。為此,我們提出了Poly-MOT,一種基于檢測(cè)跟蹤框架的高效3D MOT方法,使跟蹤器能夠?yàn)槊總€(gè)對(duì)象類(lèi)別選擇最合適的跟蹤標(biāo)準(zhǔn)。具體來(lái)說(shuō),Poly-MOT利用各種對(duì)象類(lèi)別的不同運(yùn)動(dòng)模型來(lái)準(zhǔn)確描述不同類(lèi)型的運(yùn)動(dòng)。我們還將物體剛性結(jié)構(gòu)的約束引入到具體的運(yùn)動(dòng)模型中,以準(zhǔn)確描述物體的高度非線(xiàn)性運(yùn)動(dòng)。此外,我們引入了一個(gè)兩階段的數(shù)據(jù)關(guān)聯(lián)策略,以確保對(duì)象可以從三個(gè)自定義度量中找到其類(lèi)別的最佳相似性度量,并減少丟失的匹配。在nuScenes數(shù)據(jù)集上,我們提出的方法達(dá)到了75.4% AMOTA的最高性能。

3、算法解析

重新梳理一下問(wèn)題:

給定每幀LiDAR的3D目標(biāo)檢測(cè)結(jié)果,跟蹤多個(gè)目標(biāo)在整個(gè)序列上的軌跡和狀態(tài)。

現(xiàn)有方法是怎么做的?

現(xiàn)有框架基本就是預(yù)測(cè)+關(guān)聯(lián),基于勻速或者勻加速模型,使用卡爾曼濾波預(yù)測(cè)當(dāng)前幀目標(biāo)在下一幀的位置和狀態(tài),然后和下一幀目標(biāo)檢測(cè)結(jié)果計(jì)算IoU,如果超過(guò)閾值則認(rèn)為匹配成功,重復(fù)這個(gè)過(guò)程實(shí)現(xiàn)整個(gè)序列的關(guān)聯(lián)。

這么做有什么問(wèn)題?

現(xiàn)有方法是對(duì)所有目標(biāo)類(lèi)別都建立相同的預(yù)測(cè)和關(guān)聯(lián)模型,但顯然不同目標(biāo)的運(yùn)動(dòng)規(guī)律是不一樣的,通用模型肯定會(huì)降低精度。

如何解決?

Poly-MOT將不同目標(biāo)分為CTRA和Bicycle兩類(lèi),依據(jù)物理規(guī)律建立兩個(gè)不同的預(yù)測(cè)模型,并建立多個(gè)度量函數(shù)來(lái)進(jìn)行重復(fù)性數(shù)據(jù)關(guān)聯(lián)。

具體原理是啥?

Poly-MOT的pipeline包括四個(gè)部分:預(yù)處理模塊、多類(lèi)別軌跡運(yùn)動(dòng)模塊、多類(lèi)別數(shù)據(jù)關(guān)聯(lián)模塊和軌跡管理模塊。

8f5292c2-86a7-11ee-939d-92fbcf53809c.png

(1)、預(yù)處理

這部分主要是做目標(biāo)檢測(cè)的NMS,為了降低計(jì)算量在NMS之前還加了一步分?jǐn)?shù)閾值處理(SF),直接過(guò)濾掉低置信度的檢測(cè)結(jié)果。后面也證明了SF不僅可以提高速度,也可以提高精度。感覺(jué)如果能用GPU來(lái)算NMS會(huì)再快一些。

Poly-MOT主要在nuScenes上跑,因此得到的3D目標(biāo)檢測(cè)結(jié)果是[x, y, z, w, l, h, θ, vx, vy],xyz表示box中心坐標(biāo),wlh表示box的寬長(zhǎng)高,θ是航向角,vx和vy是物體速度,注意有些數(shù)據(jù)集是沒(méi)有速度真值的。

(2)、多類(lèi)別軌跡運(yùn)動(dòng)建模

這部分是文章的主要?jiǎng)?chuàng)新點(diǎn),放棄了恒速或恒加速模型,將目標(biāo)分為CTRA和Bicycle 兩類(lèi)模型,并引入剛體結(jié)構(gòu)約束來(lái)建模目標(biāo)的非線(xiàn)性。

CTRA(汽車(chē)和人):角速度ω和加速度a視為常量,航向角θ、速度v和加速度a的方向共線(xiàn)。CTRA類(lèi)的目標(biāo)狀態(tài)為10維向量[x, y, z, v, a, θ, ω, w, l, h]。

Bicycle(摩托車(chē)、自行車(chē)等類(lèi)似物體):速度方向和航向角可變,轉(zhuǎn)向角和速度不變。Bicycle類(lèi)的目標(biāo)狀態(tài)也是10維向量[x′, y′, z, v, a, θ, δ, w, l, h],x′和y′表示重心坐標(biāo),δ為轉(zhuǎn)向角。注意兩類(lèi)模型都假設(shè)加速度a、坐標(biāo)z和box尺寸wlh不變。

8f5d928a-86a7-11ee-939d-92fbcf53809c.png

目標(biāo)狀態(tài)更新使用的是擴(kuò)展卡爾曼濾波:

8f6e2726-86a7-11ee-939d-92fbcf53809c.png

其中T表示目標(biāo)狀態(tài),P表示協(xié)方差矩陣,F(xiàn)表示雅可比矩陣,Q表示噪聲,f表示狀態(tài)轉(zhuǎn)移方程。x和y的轉(zhuǎn)移方程為:

8f78bf10-86a7-11ee-939d-92fbcf53809c.png

其中η表示速度和x軸的夾角,其轉(zhuǎn)移方程為:

8f82f3d6-86a7-11ee-939d-92fbcf53809c.png

β表示速度和航向夾角,其轉(zhuǎn)移方程為:

8f9d244a-86a7-11ee-939d-92fbcf53809c.png

其中γ表示物體軸距和車(chē)體長(zhǎng)度的比值,lr表示物體重心到后輪的距離,β也是CTRA和Bicycle的最主要區(qū)別,物理意義是自行車(chē)模型的瞬心不在物體主體上。

速度、航向角、角速度的轉(zhuǎn)移方程依次為:

8fa8115c-86a7-11ee-939d-92fbcf53809c.png

這也就是完整的狀態(tài)更新模型。

(3)、多類(lèi)別數(shù)據(jù)關(guān)聯(lián)

Poly-MOT數(shù)據(jù)關(guān)聯(lián)部分的核心思想是,為不同類(lèi)別設(shè)計(jì)不同的度量來(lái)降低假陽(yáng)性匹配,并設(shè)計(jì)兩階段關(guān)聯(lián)減少假陰性匹配。兩階段關(guān)聯(lián)維護(hù)了兩個(gè)大的代價(jià)矩陣,主要是為了使用不同的度量來(lái)進(jìn)行重復(fù)關(guān)聯(lián)。

B表示預(yù)測(cè)或者檢測(cè)的狀態(tài),第一級(jí)關(guān)聯(lián)包括并集上的3d廣義IoU、并集上的BEV廣義IoU以及歐氏距離:

8fc11972-86a7-11ee-939d-92fbcf53809c.png

第二級(jí)關(guān)聯(lián)是給所有類(lèi)別的目標(biāo)再計(jì)算一次BEV的gIoU。進(jìn)行兩階段匹配之后,獲得的是匹配對(duì)、當(dāng)前檢測(cè)中的未關(guān)聯(lián)目標(biāo)、當(dāng)前預(yù)測(cè)中的未關(guān)聯(lián)目標(biāo)。

(4)、軌跡管理

這部分包括軌跡更新、軌跡初始化、軌跡刪除和輸出文件,軌跡更新就是對(duì)匹配對(duì)應(yīng)用EKF更新?tīng)顟B(tài),軌跡初始化就是連續(xù)跟蹤幀數(shù)超過(guò)閾值就認(rèn)為是活躍軌跡,同理軌跡刪除。

4、實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)是在nuScenes數(shù)據(jù)集進(jìn)行,主要使用AMOTA來(lái)評(píng)估。Poly-MOT運(yùn)行設(shè)備是Intel 9940X,沒(méi)有使用深度學(xué)習(xí)也就不需要GPU。運(yùn)行速度是3 FPS,看起來(lái)不快,如果能設(shè)計(jì)CUDA加速在GPU上應(yīng)該會(huì)跑的很快,而且已經(jīng)超過(guò)了同類(lèi)方案SimpleTrack(0.51 FPS)、Minkowski Tracker(1.7 FPS)。

在nuScenes測(cè)試集上的定量對(duì)比結(jié)果,截止今天,還是以75.4%的性能實(shí)現(xiàn)了nuScenes多目標(biāo)跟蹤的第一!注意Poly-MOT只使用了LiDAR數(shù)據(jù),而第二的CAMO-MOT是多模態(tài)的MOT方案。

8fcf6464-86a7-11ee-939d-92fbcf53809c.png

在nuScenes測(cè)試集上的定量對(duì)比結(jié)果,同樣實(shí)現(xiàn)SOTA。

8fda360a-86a7-11ee-939d-92fbcf53809c.png

Pipeline各部分的消融實(shí)驗(yàn),Os是原始狀態(tài),Pre是預(yù)處理模塊,Mo是軌跡運(yùn)動(dòng)模塊,Ass是數(shù)據(jù)關(guān)聯(lián)模塊。特別注意Os和Os+Pre之間的差距,說(shuō)明預(yù)處理模塊很重要。

8ff1bf6e-86a7-11ee-939d-92fbcf53809c.png

預(yù)處理模塊中閾值處理和NMS的消融實(shí)驗(yàn),驗(yàn)證預(yù)處理模塊不僅可以提高精度,還可以提高運(yùn)行速度,因?yàn)榈椭眯哦鹊腷ox都被濾掉了。

90073c0e-86a7-11ee-939d-92fbcf53809c.png

最后一個(gè)消融實(shí)驗(yàn),驗(yàn)證對(duì)于不同目標(biāo),建模合適的運(yùn)動(dòng)規(guī)律可以很大程度提高跟蹤性能。不知道為啥兩個(gè)測(cè)試對(duì)象都是Bicycle類(lèi)。

9017e6f8-86a7-11ee-939d-92fbcf53809c.png

5、總結(jié)

今天筆者為大家分享了Poly-MOT跟蹤方案,不需要GPU就可以實(shí)現(xiàn)SOTA精度,文章寫(xiě)得很好,各種實(shí)驗(yàn)做得也很全。更有意義的是提出了一種新的設(shè)計(jì)思想,而不是單純的堆砌模塊。感興趣的小伙伴可以運(yùn)行一下代碼~

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2788

    瀏覽量

    50421
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    225

    瀏覽量

    16023
  • 卡爾曼濾波
    +關(guān)注

    關(guān)注

    3

    文章

    166

    瀏覽量

    25083

原文標(biāo)題:IROS'23開(kāi)源,nuScenes跟蹤第一!無(wú)需學(xué)習(xí)的超強(qiáng)多目標(biāo)跟蹤!

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    視頻跟蹤目標(biāo)跟蹤算法簡(jiǎn)介(上海凱視力成信息科技有限...

    范圍外,如艘船。邊緣跟蹤算法(Edge)當(dāng)跟蹤目標(biāo)個(gè)或多個(gè)確定邊緣而同時(shí)卻又具有不確定的邊緣,這時(shí)邊緣
    發(fā)表于 09-29 08:59

    基于聚類(lèi)融合的多目標(biāo)跟蹤算法

    多目標(biāo)跟蹤是多傳感器數(shù)據(jù)融合中的個(gè)重要問(wèn)題。基于模式識(shí)別理論,提出了種通過(guò)對(duì)傳感器測(cè)量數(shù)據(jù)集類(lèi),以區(qū)分源于不同目標(biāo)的測(cè)量數(shù)據(jù)集合。對(duì)各個(gè)
    發(fā)表于 07-01 08:40 ?18次下載

    無(wú)人機(jī)編隊(duì)視頻序列中的多目標(biāo)精確跟蹤

    無(wú)人機(jī)編隊(duì)視頻序列中的多目標(biāo)精確跟蹤::針對(duì)無(wú)人機(jī)編隊(duì)視頻序列中的多目標(biāo)精確跟蹤的要求,使用STK(satellitetoolkit)三維建模軟件模擬無(wú)人機(jī)UA
    發(fā)表于 03-18 16:21 ?19次下載

    多傳感器多目標(biāo)跟蹤中的數(shù)據(jù)關(guān)聯(lián)

    利用多傳感器跟蹤多目標(biāo)技術(shù)中最重要的問(wèn)題是目標(biāo)關(guān)聯(lián)問(wèn)題。它包括兩個(gè)方面: 同傳感器2 次掃描或多次掃描間各目標(biāo)的關(guān)聯(lián)以及多傳感器各自的
    發(fā)表于 09-06 14:30 ?31次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>中的數(shù)據(jù)關(guān)聯(lián)

    多傳感器多目標(biāo)跟蹤的JPDA算法

    文中提出了種適用于多傳感器多目標(biāo)跟蹤的JPDA算法,它以極大似然估計(jì)完成對(duì)來(lái)自多傳感器的測(cè)量集合進(jìn)行同源最優(yōu)分劃,然后采用JPDA方法對(duì)多目標(biāo)進(jìn)行
    發(fā)表于 02-03 10:38 ?47次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>的JPDA算法

    基于傳感器網(wǎng)絡(luò)的多目標(biāo)跟蹤和特征管理方法

    針對(duì)傳感器網(wǎng)絡(luò)下多目標(biāo)跟蹤時(shí)目標(biāo)數(shù)量不斷變化這復(fù)雜情況,文中對(duì)多目標(biāo)跟蹤和特征管理方法進(jìn)行了
    發(fā)表于 06-07 09:09 ?0次下載
    基于傳感器網(wǎng)絡(luò)的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>和特征管理方法

    改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法

    針對(duì)單目視覺(jué)對(duì)多個(gè)相似的目標(biāo)跟蹤因遮擋等因素影響而失效的問(wèn)題,提出種基于改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法。在將
    發(fā)表于 12-14 17:09 ?0次下載

    深度學(xué)習(xí)多目標(biāo)跟蹤方向調(diào)研報(bào)告

    導(dǎo)讀 本文是多目標(biāo)跟蹤方向的調(diào)研報(bào)告,從相關(guān)方向、核心步驟、評(píng)價(jià)指標(biāo)和最新進(jìn)展等維度出發(fā),對(duì)MOT進(jìn)行了全面的介紹,不僅適合作為入門(mén)科普,而且能夠幫助大家加深理解。 最近做了
    的頭像 發(fā)表于 11-05 10:01 ?4028次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>:<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>方向調(diào)研報(bào)告

    新技術(shù)可有效地使用目標(biāo)檢測(cè)的對(duì)抗示例欺騙多目標(biāo)跟蹤

    對(duì)抗機(jī)器學(xué)習(xí)的最新研究開(kāi)始關(guān)注自主駕駛中的視覺(jué)感知,并研究了目標(biāo)檢測(cè)模型的對(duì)抗示例。然而在視覺(jué)感知管道中,在被稱(chēng)為多目標(biāo)跟蹤的過(guò)程中,檢測(cè)到的目標(biāo)
    的頭像 發(fā)表于 02-01 11:01 ?3414次閱讀
    新技術(shù)可有效地使用<b class='flag-5'>目標(biāo)</b>檢測(cè)的對(duì)抗示例欺騙<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>

    多目標(biāo)跟蹤過(guò)程中的數(shù)據(jù)關(guān)聯(lián)技術(shù)綜述

    目標(biāo)跟蹤直都是計(jì)算視覺(jué)領(lǐng)域研究的熱點(diǎn)課題辶,作為計(jì)算視覺(jué)的基礎(chǔ)學(xué)科,其應(yīng)用已經(jīng)滲透到各個(gè)領(lǐng)域,包括智能監(jiān)控、智能人機(jī)交互、無(wú)人駕駛以及軍事等方面。
    發(fā)表于 05-08 16:27 ?2次下載

    基于卷積特征的多伯努利視頻多目標(biāo)跟蹤算法

    目標(biāo)漏跟。針對(duì)該問(wèn)題,在多伯努利濾波框架下,深度分析目標(biāo)的特征信息,引λ抗干擾的卷積特征,提出基于卷積特征的多伯努利視頻多目標(biāo)跟蹤算法,并在目標(biāo)
    發(fā)表于 05-12 15:18 ?11次下載

    視頻目標(biāo)跟蹤分析

    視頻目標(biāo)跟蹤要求在已知第一幀感興趣物體的位置和尺度信息的情況下,對(duì)該目標(biāo)在后續(xù)視頻幀中進(jìn)行持續(xù)的定位和尺度估計(jì)W。廣義的目標(biāo)
    的頭像 發(fā)表于 07-05 11:24 ?1952次閱讀

    最常見(jiàn)的目標(biāo)跟蹤算法

    對(duì)象跟蹤問(wèn)題直是計(jì)算機(jī)視覺(jué)的熱點(diǎn)任務(wù)之,簡(jiǎn)單的可以分為單目標(biāo)跟蹤多目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?3243次閱讀

    基于MobileNet的多目標(biāo)跟蹤深度學(xué)習(xí)算法

    針對(duì)深度學(xué)習(xí)算法在多目標(biāo)跟蹤中的實(shí)時(shí)性問(wèn)題, 提出種基于MobileNet的多目標(biāo)跟蹤算法.
    的頭像 發(fā)表于 11-09 10:23 ?1443次閱讀
    基于MobileNet的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>深度<b class='flag-5'>學(xué)習(xí)</b>算法

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域中的個(gè)重要任務(wù),它旨在從視頻或圖像序列中準(zhǔn)確地檢測(cè)和跟蹤多個(gè)移動(dòng)目標(biāo)。不過(guò)在落地部署時(shí),有
    的頭像 發(fā)表于 04-28 09:42 ?3164次閱讀
    <b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>算法總結(jié)歸納
    主站蜘蛛池模板: 日本色黄 | 天天色天天色天天色 | 四虎在线免费播放 | 国产美女视频黄a视频全免费网站 | 欧美一级特黄aaaaaaa在线观看 | 国产女人伦码一区二区三区不卡 | 欧美亚洲在线 | 国产精品自在线天天看片 | 亚洲一区二区三区精品视频 | 久爱综合 | 色宅男午夜电影在线观看 | 丁香婷婷综合五月综合色啪 | 激情文学综合丁香 | 美女黄页免费 | 深夜释放自己vlog糖心旧版本 | 国模私拍在线视频 | 91精品国产91久久久久青草 | 永久福利盒子日韩日韩免费看 | 国产深夜福利在线观看网站 | 午夜影院观看 | 亚洲人成电影在线观看网 | 波多野结衣50连精喷在线 | h黄网站 | 日本系列 1页 亚洲系列 | 四虎精品影院在线观看视频 | 欧美黄业| 中国xxxxx高清免费看视频 | 成人三级在线观看 | 亚洲视频一区二区在线观看 | 国产成人精品午夜二三区 | 一级毛片子| 国产精品久久久久久久久免费hd | 黄色三级视频网站 | 中文字幕天天干 | 欧美大片一区二区三区 | 天天摸日日添狠狠添婷婷 | 香港澳门a级三级三级全黄 香港经典a毛片免费观看爽爽影院 | 欧美一卡二卡3卡4卡无卡六卡七卡科普 | 五月天婷婷影院 | 亚洲午夜网 | 一级视频在线观看 |