在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在MCU上實(shí)現(xiàn)AI深度學(xué)習(xí)

CHANBAEK ? 來源:網(wǎng)絡(luò)整理 ? 2024-07-12 10:16 ? 次閱讀

隨著物聯(lián)網(wǎng)IoT)技術(shù)的飛速發(fā)展,微控制器單元(MCU)作為物聯(lián)網(wǎng)設(shè)備的核心處理單元,其性能和應(yīng)用范圍不斷拓展。近年來,將AI深度學(xué)習(xí)技術(shù)引入MCU成為了一個(gè)熱門話題,旨在提升設(shè)備的智能化水平和自主決策能力。然而,由于MCU在資源(如計(jì)算能力、存儲(chǔ)空間和功耗)上的限制,這一目標(biāo)的實(shí)現(xiàn)面臨著諸多挑戰(zhàn)。本文將從技術(shù)路徑、關(guān)鍵技術(shù)、挑戰(zhàn)應(yīng)對(duì)及未來展望等方面,深入探討在MCU上實(shí)現(xiàn)AI深度學(xué)習(xí)的可行性、方法與前景。

一、技術(shù)路徑

1.1 模型選擇與設(shè)計(jì)

首先,針對(duì)MCU的資源限制,需要選擇或設(shè)計(jì)適合在資源受限環(huán)境下運(yùn)行的深度學(xué)習(xí)模型。這通常意味著采用輕量級(jí)、高效的神經(jīng)網(wǎng)絡(luò)架構(gòu),如MobileNet、SqueezeNet或?qū)?a target="_blank">嵌入式設(shè)備設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)。在設(shè)計(jì)模型時(shí),應(yīng)優(yōu)先考慮模型的復(fù)雜度、參數(shù)量、計(jì)算量以及對(duì)特定任務(wù)的適應(yīng)性。

1.2 模型訓(xùn)練與轉(zhuǎn)換

模型訓(xùn)練通常在高性能計(jì)算平臺(tái)上進(jìn)行,使用大型數(shù)據(jù)集和復(fù)雜的訓(xùn)練算法。訓(xùn)練完成后,需要將模型從訓(xùn)練框架(如TensorFlow、PyTorch)轉(zhuǎn)換為適合MCU的格式,如TensorFlow Lite、ONNX等。這一轉(zhuǎn)換過程通常涉及模型的剪枝、量化等優(yōu)化操作,以減少模型的大小和計(jì)算復(fù)雜度,同時(shí)盡量保持模型的精度。

1.3 模型部署與推理

將優(yōu)化后的模型部署到MCU上,并通過MCU的處理器進(jìn)行推理。這一過程需要確保模型能夠在MCU的有限資源下穩(wěn)定運(yùn)行,并滿足實(shí)時(shí)性要求。為了提高推理效率,可以使用專門的推理引擎或庫(kù),如TensorFlow Lite Micro、CMSIS-NN等,這些工具針對(duì)MCU進(jìn)行了優(yōu)化,能夠提供更高效的推理能力。

二、關(guān)鍵技術(shù)

2.1 模型量化

模型量化是減少模型大小和計(jì)算復(fù)雜度的重要手段之一。通過將模型的權(quán)重和激活值從浮點(diǎn)數(shù)轉(zhuǎn)換為定點(diǎn)數(shù)(通常是8位或16位),可以顯著降低模型的存儲(chǔ)需求和計(jì)算復(fù)雜度。量化過程中需要仔細(xì)調(diào)整量化參數(shù),以確保量化后的模型精度損失在可接受范圍內(nèi)。

2.2 模型剪枝

模型剪枝是另一種有效的模型壓縮方法。通過刪除模型中不重要的連接或神經(jīng)元(即剪枝),可以減少模型的參數(shù)量和計(jì)算量。剪枝過程可以基于不同的準(zhǔn)則進(jìn)行,如權(quán)重大小、梯度大小或激活值等。剪枝后的模型在保持較高精度的同時(shí),能夠顯著降低計(jì)算復(fù)雜度和存儲(chǔ)需求。

2.3 推理引擎優(yōu)化

針對(duì)MCU的推理引擎優(yōu)化是提高推理效率的關(guān)鍵。這包括優(yōu)化內(nèi)存訪問模式、減少數(shù)據(jù)搬移次數(shù)、利用硬件加速單元(如DSPGPU)等。此外,還可以采用動(dòng)態(tài)調(diào)度、任務(wù)并行化等技術(shù)來進(jìn)一步提高推理性能。

三、挑戰(zhàn)與應(yīng)對(duì)

3.1 資源限制

MCU在計(jì)算能力、存儲(chǔ)空間和功耗等方面存在顯著限制。為了應(yīng)對(duì)這些挑戰(zhàn),需要采取一系列措施來優(yōu)化模型和資源利用。例如,通過量化、剪枝等技術(shù)減少模型大小和計(jì)算復(fù)雜度;通過優(yōu)化內(nèi)存管理、減少數(shù)據(jù)搬移次數(shù)來提高資源利用率;通過低功耗設(shè)計(jì)來延長(zhǎng)設(shè)備續(xù)航時(shí)間。

3.2 實(shí)時(shí)性要求

嵌入式設(shè)備通常需要實(shí)時(shí)處理數(shù)據(jù)并作出響應(yīng)。為了滿足實(shí)時(shí)性要求,需要確保模型推理過程能夠在規(guī)定的時(shí)間內(nèi)完成。這要求在選擇和設(shè)計(jì)模型時(shí)充分考慮其推理速度;在部署和推理過程中采用高效的推理引擎和優(yōu)化技術(shù);在硬件設(shè)計(jì)上考慮使用高速存儲(chǔ)器和處理器等。

3.3 精度與效率的平衡

在保證模型精度的同時(shí)降低其計(jì)算復(fù)雜度和存儲(chǔ)需求是一個(gè)復(fù)雜的問題。需要在模型設(shè)計(jì)、訓(xùn)練和轉(zhuǎn)換過程中進(jìn)行多次迭代和優(yōu)化;在量化、剪枝等壓縮操作中仔細(xì)調(diào)整參數(shù)以平衡精度和效率;在推理過程中采用適當(dāng)?shù)暮筇幚砑夹g(shù)來恢復(fù)精度損失。

四、未來展望

隨著硬件技術(shù)的不斷進(jìn)步和深度學(xué)習(xí)算法的持續(xù)優(yōu)化,在MCU上實(shí)現(xiàn)AI深度學(xué)習(xí)將變得更加可行和高效。未來,我們可以期待以下幾個(gè)方面的發(fā)展:

4.1 專用硬件加速器

針對(duì)深度學(xué)習(xí)推理的專用硬件加速器將不斷涌現(xiàn)。這些加速器將針對(duì)特定類型的計(jì)算任務(wù)進(jìn)行優(yōu)化,提供更高的計(jì)算效率和更低的功耗。通過與MCU的集成或外部連接,這些加速器將能夠顯著提升深度學(xué)習(xí)推理的性能。

4.2 更高效的推理引擎和庫(kù)

隨著對(duì)嵌入式設(shè)備AI需求的增加,將有更多的推理引擎和庫(kù)被開發(fā)出來以支持MCU上的深度學(xué)習(xí)推理。這些工具將針對(duì)MCU的特點(diǎn)進(jìn)行優(yōu)化,提供更高效、更靈活的推理能力。

4.3 自動(dòng)化工具鏈

自動(dòng)化工具鏈將逐漸完善并普及到MCU的AI開發(fā)過程中。這些工具鏈將涵蓋從模型設(shè)計(jì)、訓(xùn)練、轉(zhuǎn)換到部署和推理的全流程,幫助開發(fā)者快速構(gòu)建和優(yōu)化適用于MCU的AI應(yīng)用。具體來說,自動(dòng)化工具鏈可以包括:

  • 自動(dòng)模型剪枝與量化 :開發(fā)者可以指定精度損失閾值和資源限制,工具鏈將自動(dòng)探索最佳的剪枝和量化策略,以在滿足精度要求的同時(shí)最小化模型大小和計(jì)算復(fù)雜度。
  • 一鍵式部署 :通過集成模型轉(zhuǎn)換、編譯和燒錄工具,開發(fā)者只需點(diǎn)擊一個(gè)按鈕即可將訓(xùn)練好的模型部署到目標(biāo)MCU上,極大地簡(jiǎn)化了部署流程。
  • 性能分析與優(yōu)化 :工具鏈提供性能分析工具,幫助開發(fā)者識(shí)別推理過程中的瓶頸,并給出優(yōu)化建議。這些建議可能包括調(diào)整模型結(jié)構(gòu)、優(yōu)化內(nèi)存訪問模式、使用硬件加速單元等。

4.4 標(biāo)準(zhǔn)化與互操作性

隨著AI在MCU上的普及,標(biāo)準(zhǔn)化和互操作性將變得越來越重要。標(biāo)準(zhǔn)化的模型格式、推理引擎接口和API將有助于不同廠商和開發(fā)者之間的合作與交流,促進(jìn)技術(shù)的快速發(fā)展。同時(shí),互操作性也將使得開發(fā)者能夠更容易地將現(xiàn)有模型遷移到不同的MCU平臺(tái)上,提高開發(fā)效率和靈活性。

4.5 安全與隱私保護(hù)

在MCU上運(yùn)行AI應(yīng)用時(shí),安全和隱私保護(hù)是不可忽視的問題。MCU設(shè)備通常部署在邊緣環(huán)境中,直接與物理世界交互,因此容易受到各種攻擊。為了保障安全和隱私,需要采取一系列措施,如數(shù)據(jù)加密、安全啟動(dòng)、運(yùn)行時(shí)監(jiān)控等。同時(shí),也需要考慮如何在保證模型精度的同時(shí)減少敏感信息的泄露風(fēng)險(xiǎn)。

4.6 生態(tài)系統(tǒng)建設(shè)

構(gòu)建一個(gè)完善的生態(tài)系統(tǒng)對(duì)于推動(dòng)MCU上AI深度學(xué)習(xí)的發(fā)展至關(guān)重要。這包括吸引更多的開發(fā)者、研究者、企業(yè)和投資者參與到這個(gè)領(lǐng)域中來;建立開放、共享的知識(shí)庫(kù)和社區(qū);提供豐富的開發(fā)資源、工具和文檔;以及推動(dòng)產(chǎn)學(xué)研合作,加速技術(shù)創(chuàng)新和成果轉(zhuǎn)化。

五、代碼示例

以下是一個(gè)簡(jiǎn)化的代碼示例,展示了如何在STM32 MCU上使用TensorFlow Lite Micro進(jìn)行模型推理。

#include "tensorflow/lite/micro/kernels/all_ops_resolver.h"  
#include "tensorflow/lite/micro/micro_interpreter.h"  
#include "tensorflow/lite/micro/micro_mutable_op_resolver.h"  
#include "tensorflow/lite/schema/schema_generated.h"  
  
// 假設(shè)已經(jīng)有一個(gè)優(yōu)化后的TensorFlow Lite模型文件(.tflite)  
extern const unsigned char g_model_data[];  
extern const int g_model_data_len;  
  
// 輸入和輸出張量的指針  
TfLiteTensor* input = nullptr;  
TfLiteTensor* output = nullptr;  
  
// 初始化TensorFlow Lite Micro解釋器  
tflite::MicroInterpreter interpreter;  
tflite::ops::micro::AllOpsResolver resolver;  
  
// 設(shè)置模型數(shù)據(jù)和分配張量  
if (interpreter.AllocateTensors(&resolver, g_model_data, g_model_data_len) != kTfLiteOk) {  
    // 錯(cuò)誤處理  
}  
  
// 獲取輸入和輸出張量的指針  
interpreter.input(0, &input);  
interpreter.output(0, &output);  
  
// 準(zhǔn)備輸入數(shù)據(jù)(這里以固定值為例)  
float input_data[NUM_INPUTS] = {/* 初始化輸入數(shù)據(jù) */};  
for (int i = 0; i < NUM_INPUTS; ++i)
{
input- >data.f[i] = input_data[i];
}

// 執(zhí)行模型推理
TfLiteStatus invoke_status = interpreter.Invoke();
if (invoke_status != kTfLiteOk) {
// 錯(cuò)誤處理:推理失敗
}

// 讀取并處理輸出結(jié)果
float* output_data = output- >data.f;
for (int i = 0; i < NUM_OUTPUTS; ++i) {
// 根據(jù)輸出數(shù)據(jù)執(zhí)行相應(yīng)操作,如控制外設(shè)等
// 例如,輸出值大于某個(gè)閾值時(shí),控制LED點(diǎn)亮
if (output_data[i] > THRESHOLD) {
// 控制LED點(diǎn)亮的代碼
}
}

// 清理資源(可選,根據(jù)實(shí)際情況決定是否需要)
// 注意:在MCU上,由于資源有限,通常不建議頻繁地創(chuàng)建和銷毀解釋器實(shí)例
// 因此,這里的清理資源代碼可能只是示例,實(shí)際使用時(shí)可能需要根據(jù)具體情況調(diào)整
// interpreter.~MicroInterpreter(); // 注意:這通常不是C++的正確銷毀方式,僅為示意

// 注意:上述代碼僅為示例,實(shí)際使用時(shí)需要根據(jù)具體的MCU和TensorFlow Lite Micro版本進(jìn)行調(diào)整
// 特別是與硬件相關(guān)的部分(如控制外設(shè)的代碼)和與模型數(shù)據(jù)相關(guān)的部分(如輸入和輸出的維度、類型等)

六、結(jié)論

在MCU上實(shí)現(xiàn)AI深度學(xué)習(xí)是一個(gè)充滿挑戰(zhàn)但也極具前景的領(lǐng)域。通過合理的模型設(shè)計(jì)、轉(zhuǎn)換與優(yōu)化,以及選擇適合MCU的推理引擎和工具鏈,我們可以在保證模型精度的同時(shí)滿足MCU對(duì)計(jì)算復(fù)雜度、存儲(chǔ)需求和功耗等方面的限制。未來,隨著硬件技術(shù)的不斷進(jìn)步、深度學(xué)習(xí)算法的持續(xù)優(yōu)化以及生態(tài)系統(tǒng)的逐步完善,我們有理由相信MCU上的AI深度學(xué)習(xí)將在物聯(lián)網(wǎng)、智能家居、智能制造等領(lǐng)域發(fā)揮越來越重要的作用,推動(dòng)這些領(lǐng)域的智能化升級(jí)和變革。

總之,MCU上的AI深度學(xué)習(xí)是一個(gè)值得深入研究和探索的領(lǐng)域。它要求我們?cè)诩夹g(shù)、算法、工具鏈和生態(tài)系統(tǒng)等多個(gè)層面進(jìn)行創(chuàng)新和突破。只有通過持續(xù)的努力和合作,我們才能真正實(shí)現(xiàn)MCU設(shè)備的智能化和自主化,為人類社會(huì)帶來更多的便利和福祉。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    146

    文章

    17370

    瀏覽量

    352957
  • 物聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    2914

    文章

    45013

    瀏覽量

    377794
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31844

    瀏覽量

    270640
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    何在OpenCV中使用基于深度學(xué)習(xí)的邊緣檢測(cè)?

    在這篇文章中,我們將學(xué)習(xí)何在OpenCV中使用基于深度學(xué)習(xí)的邊緣檢測(cè),它比目前流行的canny邊緣檢測(cè)器更精確。
    的頭像 發(fā)表于 05-19 09:52 ?2169次閱讀
    如<b class='flag-5'>何在</b>OpenCV中使用基于<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的邊緣檢測(cè)?

    深井中的深度學(xué)習(xí)MCU+AI,讓“不可能”的田園機(jī)井智能抄表成為可能!

    深井中的深度學(xué)習(xí)MCU+AI,讓“不可能”的田園機(jī)井智能抄表成為可能!
    的頭像 發(fā)表于 09-21 17:41 ?883次閱讀
    深井中的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>:<b class='flag-5'>MCU+AI</b>,讓“不可能”的田園機(jī)井智能抄表成為可能!

    labview實(shí)現(xiàn)深度學(xué)習(xí),還在用python?

    如何使用labview實(shí)現(xiàn)深度學(xué)習(xí)應(yīng)用。ok樣本ng樣本這些圖片的特征是:ok與ok,ng與ng之間都有差異,傳統(tǒng)的方法要實(shí)現(xiàn),就需要復(fù)雜的算法編程
    發(fā)表于 07-23 20:33

    在一顆通用MCU也能暢玩深度學(xué)習(xí)嗎?

    傳統(tǒng)認(rèn)知中,人工智能(AI)相關(guān)的深度學(xué)習(xí)應(yīng)用,只有算力充沛的MPU或者是PC才能玩得轉(zhuǎn)。可你是否想過,在一顆通用MCU也能暢玩
    發(fā)表于 07-20 06:51

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個(gè)行業(yè)的企業(yè)和組織。深度
    發(fā)表于 10-27 06:34

    何在Hadoop運(yùn)行這些深度學(xué)習(xí)工作

    典型的深度學(xué)習(xí)工作流程:數(shù)據(jù)從各個(gè)終端(或其他來源)匯聚到數(shù)據(jù)湖中。數(shù)據(jù)科學(xué)家可以使用筆記本進(jìn)行數(shù)據(jù)探索,創(chuàng)建 pipelines 來進(jìn)行特征提取/分割訓(xùn)練/測(cè)試數(shù)據(jù)集。 并開展深度學(xué)習(xí)
    的頭像 發(fā)表于 01-15 16:29 ?4437次閱讀
    如<b class='flag-5'>何在</b>Hadoop<b class='flag-5'>上</b>運(yùn)行這些<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>工作

    MCU實(shí)現(xiàn)AI深度學(xué)習(xí),你想知道的都在這兒!

    傳統(tǒng)認(rèn)知中,人工智能(AI)相關(guān)的深度學(xué)習(xí)應(yīng)用,只有算力充沛的MPU或者是PC才能玩得轉(zhuǎn)。可你是否想過,在一顆通用MCU也能暢玩
    發(fā)表于 11-01 16:25 ?11次下載
    在<b class='flag-5'>MCU</b><b class='flag-5'>上</b><b class='flag-5'>實(shí)現(xiàn)</b><b class='flag-5'>AI</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>,你想知道的都在這兒!

    何在 MCU 快速部署 TinyML

    您對(duì)人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 感到好奇嗎?您想知道如何在您已經(jīng)使用過的微控制器使用它嗎?在本文中,我們向您介紹了微控制器
    的頭像 發(fā)表于 07-19 10:24 ?1927次閱讀
    如<b class='flag-5'>何在</b> <b class='flag-5'>MCU</b> <b class='flag-5'>上</b>快速部署 TinyML

    AI在汽車中的應(yīng)用:實(shí)用深度學(xué)習(xí)

    AI在汽車中的應(yīng)用:實(shí)用深度學(xué)習(xí)
    發(fā)表于 11-01 08:26 ?0次下載
    <b class='flag-5'>AI</b>在汽車中的應(yīng)用:實(shí)用<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>

    何在深度學(xué)習(xí)結(jié)構(gòu)中使用紋理特征

    來源:AI公園,作者:TraptiKalra編譯:ronghuaiyang導(dǎo)讀這是前一篇文章的繼續(xù),在這篇文章中,我們將討論紋理分析在圖像分類中的重要性,以及如何在深度學(xué)習(xí)中使用紋理分
    的頭像 發(fā)表于 10-10 09:15 ?1125次閱讀
    如<b class='flag-5'>何在</b><b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>結(jié)構(gòu)中使用紋理特征

    AI、機(jī)器學(xué)習(xí)深度學(xué)習(xí)的區(qū)別及應(yīng)用

    深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的區(qū)別在于隱藏層的深度。一般來說,神經(jīng)網(wǎng)絡(luò)的隱藏層要比實(shí)現(xiàn)深度學(xué)習(xí)的系統(tǒng)淺得多
    發(fā)表于 07-28 10:44 ?654次閱讀
    <b class='flag-5'>AI</b>、機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的區(qū)別及應(yīng)用

    何在AT32 MCU使用FPU功能

    何在AT32 MCU使用FPU功能
    的頭像 發(fā)表于 11-01 17:18 ?4120次閱讀
    如<b class='flag-5'>何在</b>AT32 <b class='flag-5'>MCU</b><b class='flag-5'>上</b>使用FPU功能

    MCU如何實(shí)現(xiàn)AI功能

    在討論如何在微控制器單元(MCU實(shí)現(xiàn)AI功能時(shí),我們需要認(rèn)識(shí)到MCU通常具有較為有限的計(jì)算資
    的頭像 發(fā)表于 07-19 11:51 ?1147次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來進(jìn)行訓(xùn)練和推理。深度
    的頭像 發(fā)表于 10-23 15:25 ?1466次閱讀

    何在低功耗MCU實(shí)現(xiàn)人工智能和機(jī)器學(xué)習(xí)

    人工智能 (AI) 和機(jī)器學(xué)習(xí) (ML) 的技術(shù)不僅正在快速發(fā)展,還逐漸被創(chuàng)新性地應(yīng)用于低功耗的微控制器 (MCU) 中,從而實(shí)現(xiàn)邊緣AI/
    的頭像 發(fā)表于 12-17 16:06 ?480次閱讀
    主站蜘蛛池模板: 免费超爽视频 | 成人综合在线观看 | 四虎影院台湾辣妹 | 国产精品色婷婷在线观看 | 男人资源 | 一区在线观看视频 | 奇米影视99| 亚洲人成电影在线小说网色 | 国产午夜视频在线观看 | 91大神大战丝袜美女在线观看 | 在线视频观看你懂的 | 女人被狂躁视频免费网站 | 日本不卡在线观看免费v | 国产精品资源手机在线播放 | 中文字幕网资源站永久资源 | 免费观看一级一片 | 91九色麻豆| 国产色视频网站 | 久久婷五月综合 | 色依依视频视频在线观看 | 亚洲视屏一区 | av在线色| 日本不卡视频在线视频观看 | 黄色插插插 | 国产精品久久久久影院免费 | 爱草免费视频 | 91av视频 | 四虎影院永久免费 | videosex久久麻豆 | 天堂网在线www最新版在线 | 亚洲丰满熟妇毛片在线播放 | 久久国产精品免费看 | 国产一级影院 | 亚洲网站免费观看 | 久久婷婷五综合一区二区 | 亚洲欧美视频二区 | 韩国在线a免费观看网站 | 超级狂色而且免费又超好看 | 三级三级三级网站网址 | 999av视频 | 国产综合成色在线视频 |