在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于AX650N部署EfficientViT

愛(ài)芯元智AXERA ? 來(lái)源:愛(ài)芯元智AXERA ? 2023-05-26 10:30 ? 次閱讀

背景

端側(cè)場(chǎng)景通常對(duì)模型推理的實(shí)時(shí)性要求較高,但大部分輕量級(jí)的Vision Transformer網(wǎng)絡(luò)仍無(wú)法在已有邊緣側(cè)/端側(cè)AI設(shè)備(CPU、NPU)上達(dá)到輕量級(jí)CNN(如MobileNet)相媲美的速度。為了實(shí)現(xiàn)對(duì)ViT模型的實(shí)時(shí)部署,微軟和港中文共同在CVPR2023提出論文《EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention》。

本文將簡(jiǎn)單介紹EfficientViT的基本架構(gòu)原理,同時(shí)手把手帶領(lǐng)感興趣的朋友基于該論文Github項(xiàng)目導(dǎo)出ONNX模型,并將其部署在優(yōu)秀的端側(cè)AI芯片AX650N上,希望能給行業(yè)內(nèi)對(duì)邊緣側(cè)/端側(cè)部署Transformer模型的愛(ài)好者提供新的思路。

EfficientViT

論文從三個(gè)維度分析了ViT的速度瓶頸,包括多頭自注意力(MHSA)導(dǎo)致的大量訪存時(shí)間,注意力頭之間的計(jì)算冗余,以及低效的模型參數(shù)分配,進(jìn)而提出了一個(gè)高效ViT模型EfficientViT。它以EfficientViT block作為基礎(chǔ)模塊,每個(gè)block由三明治結(jié)構(gòu)(Sandwich Layout)和級(jí)聯(lián)組注意力(Cascaded Group Attention, CGA)組成。在論文中作者進(jìn)一步進(jìn)行了參數(shù)重分配(Parameter Reallocation)以實(shí)現(xiàn)更高效的Channel、Block和Stage數(shù)量權(quán)衡。該方法在ImageNet數(shù)據(jù)集上實(shí)現(xiàn)了77.1%的Top-1分類準(zhǔn)確率,超越了MobileNetV3-Large 1.9%精度的同時(shí),在NVIDIA V100 GPUIntel Xeon CPU上實(shí)現(xiàn)了40.4%和45.2%的吞吐量提升,并且大幅領(lǐng)先其他輕量級(jí)ViT的速度和精度。

● 論文:

https://arxiv.org/abs/2305.070271

● Github鏈接:

https://github.com/microsoft/Cream/tree/main/EfficientViT1

2.1 骨干網(wǎng)絡(luò)

d69b0ce8-fb08-11ed-90ce-dac502259ad0.gif

該論文的核心貢獻(xiàn)是提出了一種EfficientViT block,每個(gè)EfficientViT block的輸入特征先經(jīng)過(guò)N個(gè)FFN,再經(jīng)過(guò)一個(gè)級(jí)聯(lián)組注意力CGA,再經(jīng)過(guò)N個(gè)FFN層變換得到輸出特征。這一基礎(chǔ)模塊減少了注意力的使用,緩解了注意力計(jì)算導(dǎo)致的訪存時(shí)間消耗問(wèn)題。同時(shí),作者在每個(gè)FFN之前加入了一層DWConv作為局部token之間信息交互并幫助引入歸納偏置。

另外考慮到BN可以與FC和Conv在推理時(shí)融合以實(shí)現(xiàn)加速。因此使用Batch Normalization替換Layer Normalization,同時(shí)在大尺度下層數(shù)更少,并在每個(gè)stage用了小于2的寬度擴(kuò)展系數(shù)以減輕深層的冗余。

d6a3bcc6-fb08-11ed-90ce-dac502259ad0.png

qkv-backbone

d6ab4e1e-fb08-11ed-90ce-dac502259ad0.png

benchmark

AX650N

AX650N是一款兼具高算力與高能效比的SoC芯片,集成了八核Cortex-A55 CPU,10.8TOPs@INT8 NPU,支持8K@30fps的ISP,以及H.264、H.265編解碼的VPU。接口方面,AX650N支持64bit LPDDR4x,多路MIPI輸入,千兆EthernetUSB、以及HDMI 2.0b輸出,并支持32路1080p@30fps解碼。強(qiáng)大的性能可以讓AX650N幫助用戶在智慧城市,智慧教育,智能制造等領(lǐng)域發(fā)揮更大的價(jià)值。

模型轉(zhuǎn)換

本文以EfficientViT-M5為例。

4.1 Pulsar2

Pulsar2是新一代AI工具鏈,包含模型轉(zhuǎn)換、離線量化、模型編譯、異構(gòu)調(diào)度四合一超強(qiáng)功能,進(jìn)一步強(qiáng)化了網(wǎng)絡(luò)模型高效部署的需求。在針對(duì)第三NPU架構(gòu)進(jìn)行了深度定制優(yōu)化的同時(shí),也擴(kuò)展了算子&模型支持的能力及范圍,對(duì)Transformer結(jié)構(gòu)的網(wǎng)絡(luò)也有較好的支持。

d6c129e6-fb08-11ed-90ce-dac502259ad0.png

npu-software-arch

4.2 模型下載

下載github倉(cāng)庫(kù),并進(jìn)入到EfficientViT/Classification路徑下安裝相關(guān)依賴庫(kù)

下載安裝

$ git clone https://github.com/microsoft/Cream.git
$ cd Cream/EfficientViT/classification/
$ pip install -r requirements.txt

●獲取PyTorch模型

雖然官方倉(cāng)庫(kù)中已經(jīng)提供了ONNX模型,但是我們發(fā)現(xiàn)其ONNX模型的Batch Size=16,并不適合普通的端側(cè)芯片進(jìn)行評(píng)估,因此這里選擇從pth文件重新生成Batch Size=1的ONNX模型,更利于端側(cè)芯片部署。

●下載pth文件

下載pth文件

$ wget https://github.com/xinyuliu-jeffrey/EfficientViT_Model_Zoo/releases/download/v1.0/efficientvit_m5.pth

●導(dǎo)出ONNX模型并初步優(yōu)化計(jì)算圖

導(dǎo)出onnx

$ python export_onnx_efficientvit_m5.py
$ onnxsim efficientvit_m5.onnx efficientvit_m5-sim.onnx

● export_onnx_efficientvit_m5.py源碼如下所示。

export_onnx源碼

from model import build
from timm.models import create_model
import torch


model = create_model(
    "EfficientViT_M5",
    num_classes=1000,
    distillation=False,
    pretrained=False,
    fuse=False,
  )


checkpoint = torch.load("./efficientvit_m5.pth", map_location='cpu')
state_dict = checkpoint['model']
model.load_state_dict(state_dict)
model.eval()
dummy_input = torch.rand([1,3,224,224])


model(dummy_input)


torch.onnx.export(model, dummy_input, "efficientvit_m5.onnx", opset_version=11)

4.3 模型編譯

一鍵完成圖優(yōu)化、離線量化、編譯、對(duì)分功能。整個(gè)過(guò)程耗時(shí)只需20秒。

編譯log

$ pulsar2 build --input model/efficientvit_m5-sim.onnx --output_dir efficientvit-m5/ --config config/effientvit_config.json
Building onnx ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
patool: Extracting ./dataset/imagenet-32-images.tar ...
patool: running /usr/bin/tar --extract --file ./dataset/imagenet-32-images.tar --directory efficientvit-m5/quant/dataset/input_1
patool: ... ./dataset/imagenet-32-images.tar extracted to `efficientvit-m5/quant/dataset/input_1'.
                                           Quant Config Table
┏━━━━━━━━━┳━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ Input  ┃ Shape      ┃ Dataset Directory ┃ Data Format ┃ Tensor Format ┃ Mean                          ┃ Std                       ┃
┡━━━━━━━━━╇━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┩
│ input.1 │ [1, 3, 224, 224] │ input_1      │ Image    │ RGB      │ [123.67500305175781, 116.27999877929688,        │ [58.39500045776367, 57.119998931884766, 57.375] │
│     │         │          │       │        │ 103.52999877929688]                   │                         │
└─────────┴──────────────────┴───────────────────┴─────────────┴───────────────┴─────────────────────────────────────────────────────────┴─────────────────────────────────────────────────┘
Transformer optimize level: 2
32 File(s) Loaded.
[14:22:37] AX LSTM Operation Format Pass Running ...   Finished.
[14:22:37] AX Refine Operation Config Pass Running ...  Finished.
[14:22:37] AX Transformer Optimize Pass Running ...    Finished.
[14:22:37] AX Reset Mul Config Pass Running ...      Finished.
[14:22:37] AX Tanh Operation Format Pass Running ...   Finished.
[14:22:37] AX Softmax Format Pass Running ...       Finished.
[14:22:37] AX Quantization Config Refine Pass Running ... Finished.
[14:22:37] AX Quantization Fusion Pass Running ...    Finished.
[14:22:37] AX Quantization Simplify Pass Running ...   Finished.
[14:22:37] AX Parameter Quantization Pass Running ...   Finished.
Calibration Progress(Phase 1): 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 32/32 [00:03<00:00, ?8.60it/s]
Finished.
[1442] AX Passive Parameter Quantization Running ... ?Finished.
[1442] AX Parameter Baking Pass Running ... ? ? ? ? ? Finished.
[1442] AX Refine Int Parameter pass Running ... ? ? ? Finished.
quant.axmodel export success: efficientvit-m5/quant/quant_axmodel.onnx
Building native ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 000
......
2023-05-19 1448.523 | INFO ? ? | yasched.test_onepass1438 - max_cycle = 1052639
2023-05-19 14:22:55.172 | INFO ? ? | yamain.command.build890 - fuse 1 subgraph(s)

4.4 Graph Optimize

這里主要是對(duì)輸出頭的BN+FC的結(jié)構(gòu)進(jìn)行了簡(jiǎn)單的融合,利于后續(xù)編譯階段提升執(zhí)行效率。

d6dd678c-fb08-11ed-90ce-dac502259ad0.png

圖優(yōu)化-前

d6e3ce88-fb08-11ed-90ce-dac502259ad0.png

圖優(yōu)化+量化后

上板部署

5.1 AX-Samples

開(kāi)源項(xiàng)目AX-Samples實(shí)現(xiàn)了常見(jiàn)的深度學(xué)習(xí)開(kāi)源算法在愛(ài)芯元智的AI SoC上的示例代碼,方便社區(qū)開(kāi)發(fā)者進(jìn)行快速評(píng)估和適配。最新版本已逐步完善基于AX650系列的NPU示例,其中Classification通用示例可直接運(yùn)行前面章節(jié)編譯生成的EfficientViT模型。

https://github.com/AXERA-TECH/ax-samples/blob/main/examples/ax650/ax_classification_steps.cc

5.2 運(yùn)行

運(yùn)行l(wèi)og

--------------------------------------
/opt/qtang # sample_npu_classification -m efficientvit-m5-npu1.axmodel -i cat.jpg -r 10
--------------------------------------
model file : efficientvit-m5-npu1.axmodel
image file : cat.jpg
img_h, img_w : 224 224
--------------------------------------
topk cost time:0.07 ms
5.5997, 285
5.3721, 283
5.0079, 281
4.5982, 284
4.1884, 282
--------------------------------------
Repeat 10 times, avg time 1.24 ms, max_time 1.24 ms, min_time 1.24 ms
--------------------------------------

性能統(tǒng)計(jì)

AX650N總算力10.8Tops@Int8,支持硬切分為三個(gè)獨(dú)立小核心或一個(gè)大核心的能力,即:

●NPU1,3.6Tops

●NPU3,10.8Tops

Models FPS (NPU1 Batch 8) FPS (NPU3 Batch 8)
EfficientViT-M0 4219 6714
EfficientViT-M1 3325 5263
EfficientViT-M2 2853 4878
EfficientViT-M3 2388 4096
EfficientViT-M4 2178 3921
EfficientViT-M5 1497 2710

后續(xù)計(jì)劃

●嘗試部署基于Transformer網(wǎng)絡(luò)結(jié)構(gòu)的分割模型,敬請(qǐng)期待。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10997

    瀏覽量

    214879
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33310

    瀏覽量

    273649
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3452

    瀏覽量

    49726
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    478

    瀏覽量

    17267
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    309

    瀏覽量

    19307

原文標(biāo)題:愛(ài)芯分享 | 基于AX650N部署EfficientViT

文章出處:【微信號(hào):愛(ài)芯元智AXERA,微信公眾號(hào):愛(ài)芯元智AXERA】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于AX650N/AX630C部署端側(cè)大語(yǔ)言模型Qwen2

    本文將分享如何將最新的端側(cè)大語(yǔ)言模型部署到超高性價(jià)比SoC上,向業(yè)界對(duì)端側(cè)大模型部署的開(kāi)發(fā)者提供一種新的思路。
    的頭像 發(fā)表于 07-06 17:43 ?4223次閱讀
    基于<b class='flag-5'>AX650N</b>/<b class='flag-5'>AX</b>630C<b class='flag-5'>部署</b>端側(cè)大語(yǔ)言模型Qwen2

    部署DeepSeek R1于AX650NAX630C平臺(tái)

    、7B、8B 的適配,并在春節(jié)期間,海外開(kāi)發(fā)者已基于 AX630C 平臺(tái)順利復(fù)現(xiàn),DeepSeek 端側(cè)部署順利出海! 本文將通過(guò)走馬觀花的方式,分享基于愛(ài)芯元智的 AX650NAX
    的頭像 發(fā)表于 02-09 09:32 ?698次閱讀
    <b class='flag-5'>部署</b>DeepSeek R1于<b class='flag-5'>AX650N</b>與<b class='flag-5'>AX</b>630C平臺(tái)

    AI SoC # 愛(ài)芯元智AX650N詳細(xì)介紹:原生支持Transformer架構(gòu)模型 適用部署DeepSeek R1

    AX650N是愛(ài)芯元智(AXERA)推出的一款高性能邊緣側(cè)AI芯片,專注于智能視覺(jué)感知與計(jì)算,廣泛應(yīng)用于智慧城市、智能制造、機(jī)器人等領(lǐng)域。以下是其核心特性及應(yīng)用場(chǎng)景的詳細(xì)分析: *附件:AX650N
    的頭像 發(fā)表于 03-04 11:15 ?2321次閱讀
    AI SoC # 愛(ài)芯元智<b class='flag-5'>AX650N</b>詳細(xì)介紹:原生支持Transformer架構(gòu)模型 適用<b class='flag-5'>部署</b>DeepSeek R1

    愛(ài)芯元智發(fā)布第三代智能視覺(jué)芯片AX650N,為智慧生活賦能

    中國(guó) 上海 2023 年 3 月 6 日 ——人工智能視覺(jué)感知芯片研發(fā)及基礎(chǔ)算力平臺(tái)公司愛(ài)芯元智宣布推出第三代高算力、高能效比的SoC芯片——AX650N。這是繼AX620、AX630系列后,愛(ài)芯元
    發(fā)表于 03-07 10:57 ?1865次閱讀
    愛(ài)芯元智發(fā)布第三代智能視覺(jué)芯片<b class='flag-5'>AX650N</b>,為智慧生活賦能

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】篇一:開(kāi)箱篇

    愛(ài)芯派 Pro (AXera-Pi Pro)M4N Dock 是一款集成了高算力、高能效 AI SOC 的開(kāi)發(fā)板。它采用了愛(ài)芯 AX650N 作為主控芯片。AX650N 集成了 8 核 A55
    發(fā)表于 11-15 11:32

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】愛(ài)芯元智AX650N部署yolov5s 自定義模型

    愛(ài)芯元智AX650N部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽模型),利用yolov5 官方的代碼工具導(dǎo)出onnx模型,并通過(guò)
    發(fā)表于 11-16 19:34

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】愛(ài)芯元智AX650N部署yolov8s 自定義模型

    愛(ài)芯元智AX650N部署yolov8s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov8s模型(博主展示的是自己訓(xùn)練的手寫(xiě)數(shù)字識(shí)別模型),本博客教你從訓(xùn)練模型到轉(zhuǎn)化成利于
    發(fā)表于 11-24 20:40

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】ax650使用ax-pipeline進(jìn)行推理

    /AXERA-TECH/ax-pipeline.git 下載sdk cd ax-pipeline ./download_ax_bsp.sh ax650 cd
    發(fā)表于 12-19 17:36

    愛(ài)芯元智第三代智能視覺(jué)芯片AX650N高能效比SoC芯片

    愛(ài)芯元智正式推出第三代高算力、高能效比的SoC芯片——AX650N。這是繼AX620、AX630系列后,愛(ài)芯元智推出的又一款高性能智能視覺(jué)芯片。 AX650N是一款兼具高算力與高能效比
    的頭像 發(fā)表于 03-10 17:13 ?4565次閱讀

    基于AX650N部署DETR

    目標(biāo)檢測(cè)作為計(jì)算機(jī)視覺(jué)應(yīng)用的基礎(chǔ)任務(wù),一直備受行業(yè)應(yīng)用重點(diǎn)關(guān)注。從最早學(xué)術(shù)界的Two-Stage方案Faster-RCNN,到首個(gè)利于工業(yè)界高效率部署的One-Stage方案SSD(Single
    的頭像 發(fā)表于 05-15 14:27 ?1036次閱讀
    基于<b class='flag-5'>AX650N</b><b class='flag-5'>部署</b>DETR

    基于AX650N部署SegFormer

    語(yǔ)義分割(Semantic Segmentation)是計(jì)算機(jī)視覺(jué)中的一項(xiàng)基本任務(wù)。與單張圖像分類任務(wù)相比,語(yǔ)義分割相當(dāng)于是像素級(jí)別上的分類任務(wù)。語(yǔ)義分割為許多下游應(yīng)用特別是近幾年來(lái)的智能駕駛技術(shù)的落地提供了可能。
    的頭像 發(fā)表于 06-20 16:37 ?833次閱讀
    基于<b class='flag-5'>AX650N</b><b class='flag-5'>部署</b>SegFormer

    基于AX650N部署SegFormer

    語(yǔ)義分割(Semantic Segmentation)是計(jì)算機(jī)視覺(jué)中的一項(xiàng)基本任務(wù)。與單張圖像分類任務(wù)相比,語(yǔ)義分割相當(dāng)于是像素級(jí)別上的分類任務(wù)。
    的頭像 發(fā)表于 06-20 16:37 ?885次閱讀
    基于<b class='flag-5'>AX650N</b><b class='flag-5'>部署</b>SegFormer

    基于AX650N部署視覺(jué)大模型DINOv2

    最近一段時(shí)間,基于Transformer網(wǎng)絡(luò)結(jié)構(gòu)的視覺(jué)大模型呈現(xiàn)出爆發(fā)式增長(zhǎng),繼Segment Anything(SAM)之后,Meta AI再次發(fā)布重量級(jí)開(kāi)源項(xiàng)目——DINOv2。DINOv2可以抽取到強(qiáng)大的圖像特征,且在下游任務(wù)上不需要微調(diào),這使得它適合作為許多不同的應(yīng)用中新的Backbone。
    的頭像 發(fā)表于 06-30 10:07 ?3527次閱讀

    愛(ài)芯元智AX620E和AX650系列芯片正式通過(guò)PSA Certified安全認(rèn)證

    萬(wàn)物互聯(lián)的時(shí)代,安全性已成為物聯(lián)網(wǎng)產(chǎn)品設(shè)計(jì)及部署的基本要求。近日,愛(ài)芯元智AX620E和AX650系列芯片(包含AX630C/AX620Q/
    的頭像 發(fā)表于 04-23 15:45 ?1150次閱讀
    愛(ài)芯元智<b class='flag-5'>AX</b>620E和<b class='flag-5'>AX650</b>系列芯片正式通過(guò)PSA Certified安全認(rèn)證

    重磅發(fā)布 | 矽速 M4N Dock 支持 DeepSeek R1,端側(cè)大模型部署新標(biāo)桿!

    01性能炸裂速度領(lǐng)先RK358815%,性能直逼OrinNano!久等了!矽速M(fèi)4NDock(愛(ài)芯派Pro,AX650N)已支持部署DeepSeekR1大模型,實(shí)測(cè)運(yùn)行速度超越RK3588達(dá)15
    的頭像 發(fā)表于 02-18 15:35 ?448次閱讀
    重磅發(fā)布 | 矽速 M4<b class='flag-5'>N</b> Dock 支持 DeepSeek R1,端側(cè)大模型<b class='flag-5'>部署</b>新標(biāo)桿!
    主站蜘蛛池模板: 日本a级特黄三级三级三级 日本边添边爱边摸边做边爱 | 国产在线高清精品二区色五郎 | 色图插插插 | 久久青草国产手机看片福利盒子 | 色婷婷色综合激情国产日韩 | 久久精品操 | 加勒比日本在线 | 亚洲三级视频 | 黄页在线播放网址 | 国产传媒在线观看视频免费观看 | 欧美中出 | 色综合色 | 天天怕夜夜怕狠狠怕 | 噜噜色小说 | 日本片巨大的乳456线观看 | 免费看逼网站 | 亚洲欧美在线一区二区 | 高h办公室 | 2021久久精品免费观看 | 欧美色图日韩色图 | 久久精品亚洲一区二区三区浴池 | 日本黄色生活片 | 在线视频一区二区三区 | 国内自拍网红在综合图区 | 扒开双腿爽爽爽视频www | 天天综合网网欲色 | 天天草夜夜操 | 看黄在线 | 中文字幕视频一区二区 | 新版天堂资源中文在线 | 成人伊人青草久久综合网 | 一级毛片一级毛片一级毛片 | 美女被免费网站视频在线 | 一级特黄特色的免费大片视频 | a黄网站| 免费高清视频免费观看 | 国产精品一区二区三区免费视频 | 婷婷综合激情网 | 日产精品卡二卡三卡四卡无卡乱码 | 人人射人人澡 | 一本大道一卡二卡四卡 |