在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一種基于圖像的三維重建方法

新機(jī)器視覺 ? 來源:計(jì)算機(jī)視覺工坊 ? 2023-04-12 18:21 ? 次閱讀

介紹

當(dāng)前,對(duì)于一個(gè)場(chǎng)景的快速重建是重要的,目標(biāo)是實(shí)現(xiàn)一個(gè)快速的、全面的三維重建模型。可以應(yīng)用于野外的林業(yè)資源保護(hù)、火災(zāi)和地震的災(zāi)后搶救、邊境安防、油田或者海上平臺(tái)油氣設(shè)施、電力設(shè)施監(jiān)測(cè)都有十分重要的價(jià)值。

現(xiàn)在對(duì)于野外覆蓋常用衛(wèi)星。對(duì)衛(wèi)星來說,存在分辨率不足的問題,無法清晰構(gòu)建出野外的三維場(chǎng)景。而對(duì)于較精確的雷達(dá)激光掃描重建,既有造價(jià)昂貴的缺點(diǎn),又十分笨重,在野外環(huán)境中進(jìn)行三維重建十分不方便。

隨著自動(dòng)控制、無線傳輸?shù)燃夹g(shù)的發(fā)展,無人機(jī)的應(yīng)用領(lǐng)域也越來越多。無人機(jī)具備成木低,應(yīng)用范圍廣,機(jī)動(dòng)性能好,降低野外作業(yè)人員危險(xiǎn)等優(yōu)點(diǎn)。因此基于圖像的三維重建方法是解決上述問題的有效手段。

三維重建一直以來就是國(guó)內(nèi)外學(xué)者研宄的熱點(diǎn)問題,并取得了一些重大的成果。華盛頓大學(xué)的GRAIL實(shí)驗(yàn)室,采用多核并行技術(shù)耗時(shí)21小時(shí)完成了對(duì)羅馬城的稀疏點(diǎn)云的重建,成功地實(shí)現(xiàn)了對(duì)海量數(shù)據(jù)的大場(chǎng)景稀疏點(diǎn)云的三維重建[1-2]。吳常常實(shí)現(xiàn)的VisualSFM算法是較為完善的開源視覺重建算法[3],在該算法使用多核捆綁調(diào)整[4]進(jìn)行參數(shù)優(yōu)化。但是,其對(duì)于紋理較弱的場(chǎng)景,不能進(jìn)行三維重建。

基于深度學(xué)習(xí)的方法已經(jīng)引起了人們的廣泛關(guān)注,并在圖像處理中得到了廣泛的應(yīng)用。一些研究者提出了基于深度神經(jīng)網(wǎng)絡(luò)的三維重建算法。Ummenhofer等人中提出的 DeMoN 給出了從連續(xù)的無約束圖像對(duì)中恢復(fù)圖像深度和相機(jī)運(yùn)動(dòng)的端到端神經(jīng)網(wǎng)絡(luò)[5],并且還可以輸出表面法線、匹配對(duì)之間的光流,該框架由多個(gè)編碼器-解碼器組成。該網(wǎng)絡(luò)只單純利用兩個(gè)圖像之間的RGB信息而沒有利用幾何信息進(jìn)行估計(jì),三維重建準(zhǔn)確度較低,效果不好。

總體框架

本文介紹的方法,整體流程圖如圖1所示。

f61a245c-d824-11ed-bfe3-dac502259ad0.png

圖1.整體流程圖

具體步驟如下:

步驟1:首先要對(duì)無人機(jī)的飛行路徑進(jìn)行之字形規(guī)劃,無人機(jī)拍攝的正射影像可以完全覆蓋所需拍攝的場(chǎng)景,進(jìn)而獲取精確、詳細(xì)的圖像序列,無人機(jī)在拍攝圖像的過程中,實(shí)時(shí)的將圖片與RTK信息回傳給地面站。

步驟2:地面站接收無人機(jī)拍攝的圖片后,將圖片按順序進(jìn)行排列,并將圖像按照每20張分成一個(gè)簇。

步驟3:對(duì)每個(gè)簇中的圖片進(jìn)行提取特征點(diǎn),并對(duì)特征點(diǎn)進(jìn)行描述。

步驟4:接著進(jìn)行特征匹配,使用濾波算法來剔除匹配錯(cuò)誤的特征點(diǎn)。

步驟5:通過運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)技術(shù)獲取相近圖像之間的對(duì)應(yīng)關(guān)系,初步獲取相機(jī)在三維空間中的姿態(tài)及位置信息。

步驟6:圖像中包含GPS信息,利用光束法平差來優(yōu)化相機(jī)姿態(tài)參數(shù),得到各個(gè)圖像簇的稀疏點(diǎn)云。

步驟7:然后,通過恢復(fù)每張圖像的深度圖,基于深度圖融合的方法,將這些深度圖融合,得到各個(gè)圖像簇的稠密點(diǎn)云。

步驟8:最后,將各個(gè)圖像簇的稠密點(diǎn)云進(jìn)行融合,得到整個(gè)場(chǎng)景的三維信息。

具體步驟:

首先,確定無人機(jī)拍攝野外場(chǎng)景的具體范圍,并對(duì)無人機(jī)的飛行路徑進(jìn)行規(guī)劃,這里選用之字形往返式的規(guī)劃路徑方式。這種方式對(duì)于無人機(jī)的飛行具有簡(jiǎn)單、便捷的特點(diǎn),飛行路線大多都是直線,轉(zhuǎn)彎的次數(shù)較少,消耗的能量也較少,并且可以完全覆蓋所需要拍攝的場(chǎng)景。

此外,無人機(jī)所搭載的相機(jī)也有一定的要求,需要使用帶有RTK載波相位差分技術(shù)的照相機(jī),無人機(jī)在拍攝場(chǎng)景時(shí),同時(shí)可以記錄拍攝點(diǎn)位的GPS信息。

在無人機(jī)拍攝的圖像后,需要將圖像以及相應(yīng)的RTK信息實(shí)時(shí)回傳給地面站。

地面站在接收到無人機(jī)拍攝的圖片后,將圖片按順序進(jìn)行排列,這種有序的圖像序列,為后續(xù)的特征匹配節(jié)省很多時(shí)間。

如圖2所示,圖片按順序排列好之后,將圖片按照每20張分成一個(gè)簇,后續(xù)就是對(duì)圖像簇進(jìn)行操作,各個(gè)圖像簇之間并行處理,提高效率。

f6233fba-d824-11ed-bfe3-dac502259ad0.png

圖2. 圖像分簇

對(duì)每個(gè)簇中的圖片進(jìn)行提取特征點(diǎn),這里提取SIFT特征點(diǎn),因?yàn)镾IFT特征具有區(qū)分性好,對(duì)旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,對(duì)視角變化、仿射變換、噪聲也保持一定程度的穩(wěn)定性等優(yōu)點(diǎn),因此這里使用SIFT特征提取算子對(duì)圖像集進(jìn)行特征提取。

提取了圖像的特征點(diǎn)之后,需要對(duì)圖像進(jìn)特征匹配。在接收?qǐng)D像后已經(jīng)對(duì)圖像順序進(jìn)行了排序,在特征匹配階段,只需要對(duì)各個(gè)圖像簇中相鄰的兩幅圖像進(jìn)行特征匹配,對(duì)于n張輸入圖像,能夠?qū)⑵ヅ潆A段的時(shí)間復(fù)雜度從O(n2)降低到O(n)。

對(duì)于特征匹配,包括多種兩兩圖像之間的匹配算法可供選擇。對(duì)于基于標(biāo)量的特征描述符,有暴力匹配、近似最近鄰匹配、層級(jí)哈希匹配和快速層級(jí)哈希匹配四種方式。對(duì)于二進(jìn)制描述符,主要為暴力匹配。暴力匹配對(duì)參考圖像中的每個(gè)特征點(diǎn),在另一幅待匹配圖上計(jì)算所有特征點(diǎn)和該點(diǎn)歐式距離,再利用距離比等條件進(jìn)行剔除,最終得到匹配集。該方法時(shí)間復(fù)雜度較高,搜索效率較低。

近似最近鄰匹配的方法針對(duì)大數(shù)據(jù)集時(shí)它的效果要好于暴力匹配。層級(jí)哈希匹配和快速層級(jí)哈希匹配主要是利用局部敏感哈希將一個(gè)圖像上的特征點(diǎn)映射成為一個(gè)哈希編碼,在利用SIFT特征計(jì)算兩幅圖像之間的匹配的時(shí)候,對(duì)于第一幅圖像上的某個(gè)特征點(diǎn),搜索第二幅圖像上和該特征點(diǎn)哈希編碼的漢明距離小于某個(gè)閾值的特征點(diǎn),然后根據(jù)SIFT特征描述符的相似性和比率測(cè)試確定最終的匹配。

其中快速層級(jí)哈希匹配在速度上更快,利用預(yù)先計(jì)算好的散列區(qū)域,提升了匹配速度。所以, 這里采用快速層級(jí)哈希匹配處理兩幅圖像之間的匹配問題。

在匹配的過程中,會(huì)存在一些誤匹配的情況,這對(duì)后期的三維重建會(huì)產(chǎn)生很大的影響,所以這里需要剔除匹配錯(cuò)誤的特征點(diǎn),這里采用RANSAC(Random Sample Consensus,隨機(jī)抽樣一致)算法來剔除誤匹配的點(diǎn)。RANSAC算法可以從一組包含“外點(diǎn)”的觀測(cè)數(shù)據(jù)集中,通過迭代方式估計(jì)數(shù)學(xué)模型的參數(shù),進(jìn)而剔除誤匹配的點(diǎn)。

RANSAC算法的具體步驟:

(1)首先從數(shù)據(jù)集中隨機(jī)選出一組局內(nèi)點(diǎn)(其數(shù)目要保證能夠求解出模型的所有參數(shù)),計(jì)算出一套模型參數(shù)。

(2)用得到的模型去測(cè)試其他所有的數(shù)據(jù)點(diǎn),如果某點(diǎn)的誤差在設(shè)定的誤差閾值之內(nèi),就判定其為局內(nèi)點(diǎn),否則為局外點(diǎn),只保留目前為止局內(nèi)點(diǎn)數(shù)目最多的模型,將其記錄為最佳模型。

(3)重復(fù)執(zhí)行1,2步足夠的次數(shù)(即達(dá)到預(yù)設(shè)的迭代次數(shù))后,使用最佳模型對(duì)應(yīng)的局內(nèi)點(diǎn)來最終求解模型參數(shù),該步可以使用最小二乘法等優(yōu)化算法。

(4)最后可以通過估計(jì)局內(nèi)點(diǎn)與模型的錯(cuò)誤率來評(píng)估模型。

在得到圖像中特征點(diǎn)的匹配關(guān)系后,通過運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)技術(shù)來計(jì)算相鄰圖像之間的對(duì)應(yīng)關(guān)系,初步獲取相機(jī)在三維空間中的姿態(tài)及位置信息。

因?yàn)闊o人機(jī)拍攝的圖像中包含有GPS信息,利用圖像和GPS間的約束,使用光束法平差對(duì)相機(jī)的姿態(tài)位置進(jìn)行優(yōu)化調(diào)整,得到準(zhǔn)確的相機(jī)位姿以及場(chǎng)景路標(biāo)點(diǎn)。這里使用全局式SFM(Structure from motion,運(yùn)動(dòng)恢復(fù)結(jié)構(gòu))來輸出各個(gè)圖像簇的稀疏點(diǎn)云,因?yàn)槿质絊FM的重建速度相比于增量式SFM和層級(jí)式SFM的重建速度都快,并且重建效果可以達(dá)到要求。通過這種方式生成的稀疏點(diǎn)云具有尺寸及地理編碼信息。

通過計(jì)算出每張圖像的深度圖,利用深度圖融合,來生成三維稠密點(diǎn)云。基于深度圖融合的方法,需要首先將每張圖像對(duì)應(yīng)起來,即通過旋轉(zhuǎn)、平移等坐標(biāo)變換對(duì)兩張圖像進(jìn)行匹配,這些對(duì)應(yīng)信息可以從SFM結(jié)果得到,然后再根據(jù)同一個(gè)空間點(diǎn)在各個(gè)深度圖中對(duì)應(yīng)的深度信息來共同恢復(fù)該空間點(diǎn)的三維位置。如果融合后的點(diǎn)云數(shù)量過多,還需要進(jìn)行三維點(diǎn)云精簡(jiǎn)處理,進(jìn)而得到各個(gè)圖像簇的稠密點(diǎn)云。

根據(jù)各所述稠密深度圖對(duì)應(yīng)的位移及所述旋轉(zhuǎn)關(guān)系,對(duì)各個(gè)圖像簇對(duì)應(yīng)的稠密點(diǎn)云進(jìn)行融合,在融合的過程中需要剔除一些重疊的點(diǎn)云,進(jìn)而得到整個(gè)場(chǎng)景的三維信息。

總結(jié)

本文介紹了基于圖像的三維重建方法。首先通過無人機(jī)按照規(guī)劃好的路線拍攝圖片,無人機(jī)在拍攝完圖片的過程中,將圖片實(shí)時(shí)的回傳給地面。在地面端接收無人機(jī)回傳的圖片,將接收的圖像按順序進(jìn)行排列,并將圖像按照每20張作為一個(gè)簇,分別對(duì)每簇中的圖像進(jìn)行提取特征點(diǎn),并對(duì)特征點(diǎn)進(jìn)行描述。

接著進(jìn)行特征匹配,使用濾波算法來剔除匹配錯(cuò)誤的特征點(diǎn)。根據(jù)匹配的特征點(diǎn),通過運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)技術(shù)獲取相鄰圖像之間的對(duì)應(yīng)關(guān)系,初步獲取相機(jī)在三維空間中的姿態(tài)及位置信息。進(jìn)而利用光束法平差來優(yōu)化相機(jī)姿態(tài)參數(shù),得到各個(gè)圖像簇的稀疏點(diǎn)云。然后,通過恢復(fù)每張圖像的深度圖,基于深度圖融合的方法,將這些深度圖融合,得到各個(gè)圖像簇的稠密點(diǎn)云。最后將各個(gè)圖像簇的稠密點(diǎn)云進(jìn)行融合,得到整個(gè)場(chǎng)景的三維信息。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1161

    瀏覽量

    41544
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3748

    瀏覽量

    136509
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    803

    瀏覽量

    59391
  • 無人機(jī)
    +關(guān)注

    關(guān)注

    230

    文章

    10656

    瀏覽量

    184823
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    970

    文章

    4145

    瀏覽量

    191542

原文標(biāo)題:一文帶你理解基于圖像的三維重建

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種基于基礎(chǔ)模型對(duì)齊的自監(jiān)督三維空間理解方法

    三維空間理解是推動(dòng)自動(dòng)駕駛、具身智能等領(lǐng)域中智能系統(tǒng)實(shí)現(xiàn)環(huán)境感知、交互的核心任務(wù),其中3D語義占據(jù)預(yù)測(cè) (Semantic Occupancy Prediction) 對(duì)三維場(chǎng)景進(jìn)行精準(zhǔn)的體素級(jí)建模。然而,當(dāng)前主流方法嚴(yán)重依賴大
    的頭像 發(fā)表于 03-18 15:01 ?281次閱讀
    <b class='flag-5'>一種</b>基于基礎(chǔ)模型對(duì)齊的自監(jiān)督<b class='flag-5'>三維</b>空間理解<b class='flag-5'>方法</b>

    使用DLP LightCrafter4500投影結(jié)構(gòu)光進(jìn)行三維重建遇到的疑問求解

    使用DLP LightCrafter4500 投影結(jié)構(gòu)光進(jìn)行三維重建,遇到以下問題: (1)投影自己的圖片,如何使投影出的圖片和原圖片的亮度致。它是可以設(shè)定LED的亮度,我投影出來的圖片亮度很
    發(fā)表于 03-03 06:29

    請(qǐng)問DLP LightCrafter 3000在hdmi模式下如何關(guān)閉gamma?

    使用LightCrafter進(jìn)行三維重建時(shí)發(fā)現(xiàn)有g(shù)amma現(xiàn)象,請(qǐng)問能不能控制將其關(guān)閉,還有,由于官網(wǎng)上找不到LightCrafter的資料了,希望技術(shù)人員能補(bǔ)發(fā)些相關(guān)技術(shù)文檔,比如關(guān)于投影完圖像的觸發(fā)信號(hào)的
    發(fā)表于 02-28 07:24

    請(qǐng)問DLP3010投影圖像DMD格柵如何模糊化?

    我們?cè)谑褂?00W相機(jī)采集投影條紋時(shí),相機(jī)的采樣率高,把DMD的微鏡格柵也采集到,影響到我們三維重建的數(shù)據(jù)質(zhì)量,會(huì)帶來格柵網(wǎng)狀的錯(cuò)誤數(shù)據(jù)。 是否有方法可以模糊化這種格柵網(wǎng)格,除了使用更高分辨率的DMD方案,或者使用DLP3310這種偽1080P DMD方案是否也可以?
    發(fā)表于 02-27 07:01

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用

    三維測(cè)量在醫(yī)療領(lǐng)域的應(yīng)用十分廣泛,為醫(yī)療診斷、治療及手術(shù)規(guī)劃等提供了重要的技術(shù)支持。以下是對(duì)三維測(cè)量在醫(yī)療領(lǐng)域應(yīng)用的分析: 、醫(yī)學(xué)影像的三維重建與分析 CT、MRI等影像的
    的頭像 發(fā)表于 12-30 15:21 ?504次閱讀

    三維測(cè)量技術(shù)在工業(yè)中的應(yīng)用

    中不可或缺的部分。 三維測(cè)量技術(shù)的工作原理 三維測(cè)量技術(shù),也稱為三維掃描技術(shù),是一種通過捕
    的頭像 發(fā)表于 12-30 15:01 ?484次閱讀

    商湯科技運(yùn)用AI大模型實(shí)現(xiàn)實(shí)景三維重建

    近日,在北京建筑大學(xué)舉行的2024第八屆北京國(guó)際城市設(shè)計(jì)大會(huì)上,商湯科技把這些“活過來”的文物實(shí)景三維也帶到了現(xiàn)場(chǎng)。
    的頭像 發(fā)表于 11-25 16:49 ?819次閱讀

    CASAIM與邁普醫(yī)學(xué)達(dá)成合作,三維掃描技術(shù)助力醫(yī)療輔具實(shí)現(xiàn)高精度三維建模和偏差比對(duì)

    近期,CASAIM與廣州邁普再生醫(yī)學(xué)科技股份有限公司(簡(jiǎn)稱:邁普醫(yī)學(xué))合作,基于CT數(shù)據(jù)三維重建和設(shè)計(jì),在醫(yī)療輔具研究開發(fā)中實(shí)現(xiàn)高精度三維建模和偏差比對(duì),實(shí)現(xiàn)與缺損區(qū)域的精確匹配。
    的頭像 發(fā)表于 11-12 14:48 ?407次閱讀

    建筑物邊緣感知和邊緣融合的多視圖立體三維重建方法

    航空建筑深度估計(jì)是三維數(shù)字城市重建中的項(xiàng)重要任務(wù),基于深度學(xué)習(xí)的多視圖立體(MVS)方法在該領(lǐng)域取得了較好的成果。目前的主要方法通過修改M
    的頭像 發(fā)表于 11-07 10:16 ?655次閱讀
    建筑物邊緣感知和邊緣融合的多視圖立體<b class='flag-5'>三維重建</b><b class='flag-5'>方法</b>

    三維可視化技術(shù)的應(yīng)用現(xiàn)狀和發(fā)展前景

    工程項(xiàng)目的效率與質(zhì)量。 醫(yī)學(xué)影像 醫(yī)學(xué)領(lǐng)域利用三維可視化技術(shù)進(jìn)行醫(yī)學(xué)影像診斷、手術(shù)規(guī)劃和教育培訓(xùn)。醫(yī)生可以利用三維重建圖像來更好地了解患者病情,規(guī)劃手術(shù)路徑,甚至進(jìn)行虛擬手術(shù)模擬,提升治療效果與安全性。 虛擬現(xiàn)實(shí)與游
    的頭像 發(fā)表于 09-30 17:57 ?597次閱讀

    三維打印技術(shù)原理

    三維打印技術(shù),又稱3D打印技術(shù),是一種快速成型技術(shù),其核心原理在于將數(shù)字模型文件逐層轉(zhuǎn)化為實(shí)體物體。以下是三維打印技術(shù)原理的詳細(xì)闡述:
    的頭像 發(fā)表于 09-16 15:31 ?1357次閱讀

    留形科技借助NVIDIA平臺(tái)提供高效精確的三維重建解決方案

    本案例中,留形科技借助 NVIDIA Jetson 和 Omniverse 平臺(tái),實(shí)現(xiàn)邊緣設(shè)備上的實(shí)時(shí)、全彩、無損三維重建,從而在建筑細(xì)節(jié)捕捉、大型基礎(chǔ)設(shè)施的數(shù)字孿生等應(yīng)用中,大幅提升三維數(shù)據(jù)采集與處理的效率與精度。
    的頭像 發(fā)表于 09-09 09:42 ?741次閱讀

    基于大模型的仿真系統(tǒng)研究——三維重建大模型

    問題,賽目推出了基于大模型的仿真系統(tǒng),利用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能技術(shù),不僅推出自動(dòng)標(biāo)注大模型、多模態(tài)檢測(cè)大模型和場(chǎng)景生成大模型等模塊,并且引入三維重建大模型加強(qiáng)渲染畫面真實(shí)性。 ? ?通過上述模塊,賽目的路采
    的頭像 發(fā)表于 07-30 14:51 ?2269次閱讀
    基于大模型的仿真系統(tǒng)研究<b class='flag-5'>一</b>——<b class='flag-5'>三維重建</b>大模型

    cad如何進(jìn)行三維建模

    三維建模是計(jì)算機(jī)輔助設(shè)計(jì)(CAD)中的項(xiàng)重要技術(shù),它可以幫助設(shè)計(jì)師在計(jì)算機(jī)上創(chuàng)建和編輯三維模型。本文將介紹如何使用CAD軟件進(jìn)行三維建模,
    的頭像 發(fā)表于 07-09 10:23 ?1770次閱讀

    三維可視化系統(tǒng)平臺(tái)介紹及優(yōu)勢(shì)

    三維可視化 系統(tǒng)平臺(tái)是一種基于三維技術(shù)開發(fā)的軟件系統(tǒng),主要用于實(shí)現(xiàn)對(duì)三維空間中數(shù)據(jù)、模型、場(chǎng)景等內(nèi)容的可視化展示和操作。這樣的系統(tǒng)平臺(tái)在各個(gè)領(lǐng)域都具有廣泛的應(yīng)用,包括但不限于建筑設(shè)計(jì)、
    的頭像 發(fā)表于 06-12 16:02 ?866次閱讀
    <b class='flag-5'>三維</b>可視化系統(tǒng)平臺(tái)<b class='flag-5'>介紹</b>及優(yōu)勢(shì)
    主站蜘蛛池模板: 美女18黄 | 欧美成人精品一区二三区在线观看 | 手机在线看片国产 | 久久精品国产清自在天天线 | 国产在线啪 | 一区二区三区高清视频在线观看 | 免费看逼网站 | 国产色综合天天综合网 | 国产色婷婷免费视频 | 欧美成人26uuu欧美毛片 | 五月天婷婷在线观看高清 | 国产gaysexchina男同men1068 | 狠狠色丁香婷婷久久综合不卡 | 沟沟人体一区二区 | 国产一级特黄特色aa毛片 | 亚洲免费成人 | 国产特黄一级毛片特黄 | 亚洲美女视频在线观看 | 色婷婷精品 | 欧美video free xxxxx | 欧美a欧美 | 69日本xxⅹxxxxx19 | 毛片网站网址 | 伊人不卡久久大香线蕉综合影院 | 欧美一级在线免费观看 | 国产午夜一区二区在线观看 | 久久午夜综合久久 | 午夜操一操 | 精品乱人伦一区二区三区 | 国产大乳孕妇喷奶水在线观看 | 色中文字幕 | 欧美又黄又嫩大片a级 | 美女网站黄在线看 | 欧美一区二区视频 | 你懂得在线网址 | 欧美黄页| 婷婷精品视频 | 色琪琪一本到影院 | 色多多在线视频 | 免费伦费一区二区三区四区 | 久久精品re |