在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA TensorRT優(yōu)化T5和GPT-2

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-03-31 17:25 ? 次閱讀

這個transformer 體系結(jié)構(gòu)完全改變了(雙關(guān)語)自然語言處理( NLP )的領(lǐng)域。近年來,在 transformer 構(gòu)建塊 BERT 、 GPT 和 T5 上構(gòu)建了許多新穎的網(wǎng)絡(luò)體系結(jié)構(gòu)。隨著品種的增加,這些型號的尺寸也迅速增加。

雖然較大的神經(jīng)語言模型通常會產(chǎn)生更好的結(jié)果,但將它們部署到生產(chǎn)環(huán)境中會帶來嚴重的挑戰(zhàn),尤其是對于在線應(yīng)用程序,在這些應(yīng)用程序中,幾十毫秒的額外延遲可能會對用戶體驗產(chǎn)生顯著的負面影響。

使用最新TensorRT8.2 ,我們優(yōu)化了 T5 和 GPT-2 模型,以實現(xiàn)實時推理。您可以將 T5 或 GPT-2 模型轉(zhuǎn)換為 TensorRT 引擎,然后將此引擎用作推理工作流中原始 PyTorch 模型的插件替換。與 PyTorch GPU 推理相比,此優(yōu)化導(dǎo)致延遲減少 3-6 倍,與 PyTorch CPU 推理相比,延遲減少 9-21 倍。

在這篇文章中,我們將向您詳細介紹如何實現(xiàn)相同的延遲減少,使用我們最新發(fā)布的基于 Hugging Face transformers 的示例腳本和筆記本,使用 GPT-2 進行開放式文本生成,使用 T5 進行翻譯和摘要。

T5 和 GPT-2 簡介

在本節(jié)中,我們將簡要介紹 T5 和 GPT-2 模型。

T5 用于回答問題、總結(jié)、翻譯和分類

T5或文本到文本傳輸 transformer 是谷歌最近創(chuàng)建的一種體系結(jié)構(gòu)。它將所有自然語言處理( NLP )任務(wù)重新構(gòu)造為統(tǒng)一的文本到文本格式,其中輸入和輸出始終是文本字符串。 T5 的體系結(jié)構(gòu)允許將相同的模型、損失函數(shù)和超參數(shù)應(yīng)用于任何 NLP 任務(wù),如機器翻譯、文檔摘要、問答和分類任務(wù),如情感分析。

T5 模式的靈感來源于遷移學(xué)習(xí)在 NLP 中產(chǎn)生了最先進的結(jié)果。遷移學(xué)習(xí)背后的原理是,基于大量可用的未經(jīng)訓(xùn)練的數(shù)據(jù)和自我監(jiān)督任務(wù)的模型可以在較小的任務(wù)特定標記數(shù)據(jù)集上針對特定任務(wù)進行微調(diào)。事實證明,這些模型比從頭開始針對特定任務(wù)數(shù)據(jù)集訓(xùn)練的模型具有更好的結(jié)果。

基于遷移學(xué)習(xí)的概念, Google 在用統(tǒng)一的文本到文本轉(zhuǎn)換器探索遷移學(xué)習(xí)的局限性中提出了 T5 模型。在本文中,他們還介紹了龐大的干凈爬網(wǎng)語料庫( C4 )數(shù)據(jù)集。在該數(shù)據(jù)集上預(yù)訓(xùn)練的 T5 模型在許多下游 NLP 任務(wù)上實現(xiàn)了最先進的結(jié)果。已發(fā)布的預(yù)訓(xùn)練 T5 車型的參數(shù)范圍高達 3B 和 11B 。

GPT-2 用于生成優(yōu)秀的類人文本

生成性預(yù)訓(xùn)練 transformer 2 (GPT-2)是 OpenAI 最初提出的一種自回歸無監(jiān)督語言模型。它由 transformer 解碼器塊構(gòu)建,并在非常大的文本語料庫上進行訓(xùn)練,以預(yù)測段落中的下一個單詞。它生成優(yōu)秀的類人文本。更大的 GPT-2 模型,最大參數(shù)達到 15 億,通常能寫出更好、更連貫的文本。

使用 TensorRT 部署 T5 和 GPT-2

使用 TensorRT 8.2 ,我們通過構(gòu)建并使用 TensorRT 發(fā)動機作為原始 PyTorch 模型的替代品,優(yōu)化了 T5 和 GPT-2 模型。我們將帶您瀏覽scripts和 Jupyternotebooks,并重點介紹基于擁抱面部變形金剛的重要內(nèi)容。有關(guān)更多信息,請參閱示例腳本和筆記本以獲取詳細的分步執(zhí)行指南。

設(shè)置

最方便的開始方式是使用 Docker 容器,它為實驗提供了一個隔離、獨立和可復(fù)制的環(huán)境。

構(gòu)建并啟動 TensorRT 容器:

pYYBAGJFc9SAPvxgAAAaKW2vWGI162.png

這些命令啟動 Docker 容器和 JupyterLab 。在 web 瀏覽器中打開 JupyterLab 界面:pYYBAGJFdAKAcbUvAAAEMDAJOjM560.png在 JupyterLab 中,要打開終端窗口,請選擇?File?、?New?、?Terminal?。編譯并安裝 TensorRT OSS 包:

poYBAGJFdA2AQncNAAALSmQMGn0122.png

現(xiàn)在,您已經(jīng)準備好繼續(xù)使用模型進行實驗。在下面的順序中,我們將演示 T5 模型的步驟。下面的代碼塊并不意味著可以復(fù)制粘貼運行,而是引導(dǎo)您完成整個過程。為了便于復(fù)制,請參閱 GitHub 存儲庫上的notebooks。

在高層次上,使用 TensorRT 優(yōu)化用于部署的擁抱面 T5 和 GPT-2 模型是一個三步過程:

從 HuggingFace 模型動物園下載模型。

將模型轉(zhuǎn)換為優(yōu)化的 TensorRT 執(zhí)行引擎。

使用 TensorRT 引擎進行推理。

使用生成的引擎作為 HuggingFace 推理工作流中原始 PyTorch 模型的插件替換。

從 HuggingFace 模型動物園下載模型

首先,從 HuggingFace 模型中心下載原始的 Hugging Face PyTorch T5 模型及其關(guān)聯(lián)的標記器。

poYBAGJFdCeAbgptAAANxtLgEjs368.png

然后,您可以將此模型用于各種 NLP 任務(wù),例如,從英語翻譯為德語:

pYYBAGJFdC-ATa1bAAAU9hCPQ6k530.png

TensorRT 8.2 支持 GPT-2 至“ xl ”版本( 1.5B 參數(shù))和 T5 至 11B 參數(shù),這些參數(shù)可在 HuggingFace model zoo 上公開獲得。根據(jù) GPU 內(nèi)存可用性,也可支持較大型號。

將模型轉(zhuǎn)換為優(yōu)化的 TensorRT 執(zhí)行引擎。

在將模型轉(zhuǎn)換為 TensorRT 引擎之前,請將 PyTorch 模型轉(zhuǎn)換為中間通用格式。 ONNX 是機器學(xué)習(xí)深度學(xué)習(xí)模型的開放格式。它使您能夠?qū)?TensorFlow 、 PyTorch 、 MATLAB 、 Caffe 和 Keras 等不同框架中的深度學(xué)習(xí)和機器學(xué)習(xí)模型轉(zhuǎn)換為單一的統(tǒng)一格式。

轉(zhuǎn)換為 ONNX

對于 T5 型號,使用實用功能分別轉(zhuǎn)換編碼器和解碼器。

pYYBAGJFdDiACUfkAAAhAI8eZnI041.png

轉(zhuǎn)換為 TensorRT

現(xiàn)在,您已經(jīng)準備好解析 T5 ONNX 編碼器和解碼器,并將它們轉(zhuǎn)換為優(yōu)化的 TensorRT 引擎。由于 TensorRT 執(zhí)行了許多優(yōu)化,例如融合操作、消除轉(zhuǎn)置操作和內(nèi)核自動調(diào)優(yōu),以在目標 GPU 體系結(jié)構(gòu)上找到性能最佳的內(nèi)核,因此此轉(zhuǎn)換過程可能需要一些時間。

pYYBAGJFdE6AQLHtAAAcENHunE8781.png

使用 TensorRT 引擎進行推理

最后,您現(xiàn)在有了一個針對 T5 模型的優(yōu)化 TensorRT 引擎,可以進行推斷。

pYYBAGJFdGyATjkzAAAfAAkkvFE954.png

類似地,對于 GPT-2 模型,您可以按照相同的過程生成 TensorRT 引擎。優(yōu)化的 TensorRT 引擎可作為 HuggingFace 推理工作流中原始 PyTorch 模型的插件替代品。

TensorRT transformer 優(yōu)化細節(jié)

基于轉(zhuǎn)換器的模型是 transformer 編碼器或解碼器塊的堆棧。編碼器(解碼器)塊具有相同的結(jié)構(gòu)和參數(shù)數(shù)量。 T5 由 transformer 編碼器和解碼器的堆棧組成,而 GPT-2 僅由 transformer 解碼器塊組成(圖 1 )。

t5-architecture.png

圖 1a 。 T5 架構(gòu)

poYBAGJFc5-AeDgfAABnQisiZW4320.png

圖 1b 。 GPT-2 體系結(jié)構(gòu)

每個 transformer 塊,也稱為自我注意塊,通過使用完全連接的層將輸入投影到三個不同的子空間,稱為查詢( Q )、鍵( K )和值( V ),由三個投影組成。然后將這些矩陣轉(zhuǎn)換為 QT和 KT用于計算標準化點積注意值,然后與 V 組合T生成最終輸出(圖 2 )。

pYYBAGJFc6GAKbmGAAC5J-rjuz4450.png

圖 2 。自我注意塊

TensorRT 通過逐點層融合優(yōu)化自我注意塊:

還原與電源操作相融合(用于圖層模板和剩余添加圖層)。

電子秤與 softmax 融合在一起。

GEMM 與 ReLU / GELU 激活融合。

此外, TensorRT 還優(yōu)化了推理網(wǎng)絡(luò):

消除轉(zhuǎn)置操作。

將三個 KQV 投影融合為一個 GEMM 。

當指定 FP16 模式時,控制逐層精度以保持精度,同時運行 FP16 中計算最密集的運算。

TensorRT 對 PyTorch CPU 和 GPU 基準

通過 TensorRT 進行的優(yōu)化,我們看到 PyTorch GPU 推理的加速比高達 3-6 倍,而 PyTorch CPU 推理的加速比高達 9-21 倍。

圖 3 顯示了批量為 1 的 T5-3B 模型的推理結(jié)果,該模型用于將短短語從英語翻譯成德語。 A100 GPU 上的 TensorRT 引擎與在雙插槽 Intel Platinum 8380 CPU 上運行的 PyTorch 相比,延遲減少了 21 倍。

poYBAGJFc6KAct-cAABCQhQEBKM339.png

圖 3 。 A100 GPU 上的 T5-3B 模型推斷比較 TensorRT 提供的延遲比 PyTorch CPU 推斷小 21 倍。

CPU :英特爾白金 8380 , 2 個插槽。
GPU:NVIDIA A100 PCI Express 80GB 。軟件: PyTorch 1.9 , TensorRT 8.2.0 EA 。
任務(wù):“將英語翻譯成德語:這很好。”

結(jié)論

在這篇文章中,我們向您介紹了如何將擁抱臉 PyTorch T5 和 GPT-2 模型轉(zhuǎn)換為優(yōu)化的 TensorRT 推理引擎。 TensorRT 推理機用作原始 HuggingFace T5 和 GPT-2 PyTorch 模型的替代品,可提供高達 21x CPU 的推理加速比。要為您的模型實現(xiàn)此加速,從 TensorRT 8.2 開始今天的學(xué)習(xí).

關(guān)于作者

About Vinh Nguyen是一位深度學(xué)習(xí)的工程師和數(shù)據(jù)科學(xué)家,發(fā)表了 50 多篇科學(xué)文章,引文超過 2500 篇。在 NVIDIA ,他的工作涉及廣泛的深度學(xué)習(xí)和人工智能應(yīng)用,包括語音、語言和視覺處理以及推薦系統(tǒng)。

About Nikhil Srihari是 NVIDIA 的深入學(xué)習(xí)軟件技術(shù)營銷工程師。他在自然語言處理、計算機視覺和語音處理領(lǐng)域擁有廣泛的深度學(xué)習(xí)和機器學(xué)習(xí)應(yīng)用經(jīng)驗。 Nikhil 曾在富達投資公司和 Amazon 工作。他的教育背景包括布法羅大學(xué)的計算機科學(xué)碩士學(xué)位和印度蘇拉斯卡爾卡納塔克邦國家理工學(xué)院的學(xué)士學(xué)位。

About Parth Chadha是 NVIDIA 的深度學(xué)習(xí)軟件工程師。他在 TensorRT 上工作,這是一個高性能的深度學(xué)習(xí)推理 SDK 。 Parth 在卡內(nèi)基梅隆大學(xué)獲得電氣和計算機工程碩士學(xué)位,主要研究機器學(xué)習(xí)和并行計算機體系結(jié)構(gòu)。

About Charles Chen20 歲時在加州大學(xué)圣地亞哥分校獲得計算機科學(xué)碩士學(xué)位后, Charles Chen 專注于為尖端人工智能框架、發(fā)展中國家的計算機教育和人機交互做出貢獻。在 NVIDIA , Charles 是一名深度學(xué)習(xí)軟件工程師,致力于 TensorRT ,一款高性能的深度學(xué)習(xí)推理 SDK 。

About Joohoon Lee領(lǐng)導(dǎo) NVIDIA 的汽車深度學(xué)習(xí)解決方案架構(gòu)師團隊。他專注于將深度學(xué)習(xí)研究轉(zhuǎn)化為用于生產(chǎn)部署的真實世界自主駕駛軟件。他的團隊使汽車客戶能夠使用英偉達驅(qū)動平臺進行 DNN 培訓(xùn)、微調(diào)、優(yōu)化和部署。在加入 NVIDIA 之前,他曾擔(dān)任 GPU 軟件架構(gòu)師,負責(zé)加速 DNN 算法。 Joohoon 在卡內(nèi)基梅隆大學(xué)獲得電氣和計算機工程學(xué)士和碩士學(xué)位。

About Jay Rodge是 NVIDIA 的產(chǎn)品營銷經(jīng)理,負責(zé)深入學(xué)習(xí)和推理產(chǎn)品,推動產(chǎn)品發(fā)布和產(chǎn)品營銷計劃。杰伊在芝加哥伊利諾伊理工學(xué)院獲得計算機科學(xué)碩士學(xué)位,主攻計算機視覺和自然語言處理。在 NVIDIA 之前,杰伊是寶馬集團的人工智能研究實習(xí)生,為寶馬最大的制造廠使用計算機視覺解決問題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10905

    瀏覽量

    213038
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5076

    瀏覽量

    103735
收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?262次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    OpenAI GPT-5開發(fā)滯后:訓(xùn)練成本高昂

    已經(jīng)對GPT-5進行了至少兩輪大規(guī)模訓(xùn)練,希望通過海量數(shù)據(jù)資源來優(yōu)化模型效能。然而,首次訓(xùn)練的實際運行結(jié)果并未達到預(yù)期標準,導(dǎo)致更大規(guī)模的訓(xùn)練嘗試變得耗時且成本更高。據(jù)估計,GPT-5的訓(xùn)練成本已經(jīng)高達
    的頭像 發(fā)表于 12-23 11:04 ?323次閱讀

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?279次閱讀

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?339次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    瑞薩RA-T系列芯片ADC和GPT功能模塊的配合使用

    通道打包和分組,GPT觸發(fā)啟動的設(shè)置。本文以RA6T2為范例,結(jié)果可推廣到RA-T系列其他芯片和相關(guān)領(lǐng)域。
    的頭像 發(fā)表于 11-21 13:40 ?450次閱讀
    瑞薩RA-<b class='flag-5'>T</b>系列芯片ADC和<b class='flag-5'>GPT</b>功能模塊的配合使用

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型(VLM)、小語言模型(SLM)和支持視覺的更新版 Llama Guard 模型。與 NVIDIA 加速
    的頭像 發(fā)表于 11-20 09:59 ?312次閱讀

    TensorRT-LLM低精度推理優(yōu)化

    本文將分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA TensorRT Model
    的頭像 發(fā)表于 11-19 14:29 ?449次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理<b class='flag-5'>優(yōu)化</b>

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導(dǎo)和獎勵模型,以及一個用于生成式 AI
    的頭像 發(fā)表于 09-06 14:59 ?383次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的應(yīng)用價值。”
    的頭像 發(fā)表于 08-23 15:48 ?522次閱讀

    寶塔面板Docker一鍵安裝:部署GPTAcademic,開發(fā)私有GPT學(xué)術(shù)優(yōu)化工具

    使用寶塔Docker-compose,5分鐘內(nèi)在海外服務(wù)器上搭建gpt_academic。這篇文章講解如何使用寶塔面板的Docker服務(wù)搭建GPT 學(xué)術(shù)優(yōu)化 (
    的頭像 發(fā)表于 07-02 11:58 ?2799次閱讀
    寶塔面板Docker一鍵安裝:部署GPTAcademic,開發(fā)私有<b class='flag-5'>GPT</b>學(xué)術(shù)<b class='flag-5'>優(yōu)化</b>工具

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于
    的頭像 發(fā)表于 04-28 10:36 ?637次閱讀

    奇瑞捷途T5山海版首展,續(xù)航1400km預(yù)計明年上市

    據(jù)悉,4 月 25 日,在北京車展上,奇瑞汽車旗下捷途品牌的全新車型——捷途山海 T5 正式亮相。這是捷途品牌首款采用非承載式車身結(jié)構(gòu)的 SUV,搭載 2.0T 混合動力引擎,綜合續(xù)航里程達到 1400km 左右,預(yù)計將于明年上市銷售。
    的頭像 發(fā)表于 04-26 10:46 ?1412次閱讀

    Bota Systems推出一款新型力扭矩傳感器SensONE T5

    據(jù)麥姆斯咨詢報道,近期,多軸力扭矩傳感器的先驅(qū)Bota Systems(簡稱:Bota)推出了新型力扭矩傳感器SensONE T5,它在Bota SensONE系列傳感器中具有最高的靈敏度。
    的頭像 發(fā)表于 03-25 09:20 ?769次閱讀

    極狐阿爾法T5限時優(yōu)惠2.5萬元,起售價13.08萬元

    阿爾法T5擁有四款車型可供選擇,提供兩種里程配置,分別是520公里和660公里,指導(dǎo)價在15.58-19.98萬之間。折扣后價格范圍在13.08-17.48萬元之間。
    的頭像 發(fā)表于 03-08 14:07 ?766次閱讀

    TensorRT LLM加速Gemma!NVIDIA與谷歌牽手,RTX助推AI聊天

    NVIDIA今天在其官方博客中表示,今天與谷歌合作,在所有NVIDIA AI平臺上為Gemma推出了優(yōu)化。
    的頭像 發(fā)表于 02-23 09:42 ?666次閱讀
    <b class='flag-5'>TensorRT</b> LLM加速Gemma!<b class='flag-5'>NVIDIA</b>與谷歌牽手,RTX助推AI聊天
    主站蜘蛛池模板: 国产中日韩一区二区三区 | aa在线观看| 天堂色综合 | 国产精品偷伦费观看 | 中文字幕第7页 | 女人张腿让男桶免费视频观看 | 正在播放久久 | 五月天狠狠 | 天天做天天爱天天射 | 国产麻豆成人传媒免费观看 | 午夜免费啪在线观看视频网站 | 伊人丁香婷婷综合一区二区 | 天天干天天上 | 亚洲高清日韩精品第一区 | 天天躁日日躁狠狠躁一级毛片 | 开心丁香婷婷深爱五月 | 精品国产高清在线看国产 | 免费爱做网站在线看 | 特大一级aaaaa毛片 | 成年黄网站免费大全毛片 | 麻豆国产三级在线观看 | 国产va在线| 在线观看日本亚洲一区 | 欧美一级黄色片视频 | 爱爱帝国亚洲一区二区三区 | 久久成人性色生活片 | 久久国产免费观看精品1 | 亚洲综合丁香婷婷六月香 | 永久影视 | 亚洲色图狠狠干 | 色色视频免费网 | 欧美精品久久久久久久小说 | 午夜性视频播放免费视频 | 2018天堂视频免费观看 | www.激情网.com| 色视频一区二区三区 | 亚洲婷婷综合色高清在线 | 国产一区二区三区免费大片天美 | 欧美成人午夜影院 | 手机在线黄色 | 国产小视频在线播放 |