在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI大語言模型的原理、演進及算力測算專題報告

jh18616091022 ? 來源:AIOT大數據 ? 2023-04-28 10:01 ? 次閱讀

核心觀點:

機器學習中模型及數據規模增加有利于提高深度神經網絡性能。人工智能致力于研究能夠模擬、延伸和擴展人類智能的理論方法及技術,并開發相關應用系統;其最終目標是使計算機能夠模擬人的思維方 式和行為。機器學習是一門專門研究計算機如何模擬或實現人類的學習行為、以獲取新的知識或技能、重新組織已有的知識結構使之不斷改 善自身性能的學科,廣泛應用于數據挖掘、計算機視覺、自然語言處理等領域。深度學習是機器學習的子集,主要由人工神經網絡組成。與 傳統算法及中小型神經網絡相比,大規模的神經網絡及海量的數據支撐將有效提高深度神經網絡的表現性能。

Transformer模型架構是現代大語言模型所采用的基礎架構。Transformer模型是一種非串行的神經網絡架構,最初被用于執行基于上下文的機器翻譯任務。Transformer模型以Encoder-Decoder架構為基 礎,能夠并行處理整個文本序列,同時引入“注意機制”(Attention),使其能夠在文本序列中正向和反向地跟蹤單詞之間的關系,適合在 大規模分布式集群中進行訓練,因此具有能夠并行運算、關注上下文信息、表達能力強等優勢。

Transformer模型以詞嵌入向量疊加位置編碼 作為輸入,使得輸入序列具有位置上的關聯信息。編碼器(Encoder)由Self-Attention(自注意力層)和 Feed Forward Network(前饋網 絡)兩個子層組成,Attention使得模型不僅關注當前位置的詞語,同時能夠關注上下文的詞語。解碼器(Decoder)通過Encoder-Decoder Attention層,用于解碼時對于輸入端編碼信息的關注;利用掩碼(Mask)機制,對序列中每一位置根據之前位置的輸出結果循環解碼得到當 前位置的輸出結果。

GPT是基于Transformer架構的大語言模型,近年迭代演進迅速。構建語言模型是自然語言處理中最基本和最重要的任務之一。GPT是基于Transformer架構衍生出的生成式預訓練的單向語言模型,通過對大 量語料數據進行無監督學習,從而實現文本生成的目的;在結構上僅采用Transformer架構的Decoder部分。自2018年6月OpenAI發布GPT-1模 型以來,GPT模型迭代演進迅速。GPT-1核心思想是采用“預訓練+微調”的半監督學習方法,服務于單序列文本的生成式任務;GPT-2在預訓 練階段引入多任務學習機制,將多樣化的自然語言處理任務全部轉化為語言模型問題;GPT-3大幅增加了模型參數,更能有效利用上下文信息, 性能得到跨越式提高;GPT-3.5引入人類反饋強化學習機制,通過使用人類反饋的數據集進行監督學習,能夠使得模型輸出與人類意圖一致。

大語言模型的訓練及推理應用對算力需求帶來急劇提升。以GPT-3為例,GPT-3參數量達1750億個,訓練樣本token數達3000億個??紤]采用精度為32位的單精度浮點數數據來訓練模型及進行谷歌級訪 問量推理,假設GPT-3模型每次訓練時間要求在30天完成,對應GPT-3所需運算次數為3.15*10^23FLOPs,所需算力為121.528PFLOPS,以A100 PCle芯片為例,訓練階段需要新增A100 GPU芯片1558顆,價值量約2337萬美元;對應DGX A100服務器195臺,價值量約3880.5萬美元。假設推 理階段按谷歌每日搜索量35億次進行估計,則每日GPT-3需推理token數達7.9萬億個,所需運算次數為4.76*10^24FLOPs,所需算力為 55EFLOPs,則推理階段需要新增A100 GPU芯片70.6萬顆,價值量約105.95億美元;對應DGX A100服務器8.8萬臺,價值量約175.12億美元。

01、人工智能、機器學習與神經網絡簡介

機器學習是實現人工智能的途徑之一

人工智能(Artificial Intelligence,AI)是研究、開發用于模擬、延伸和擴展人類智能的理論、方法、技術及應用系統的一門新的 技術科學。人工智能的最終目標是使計算機能夠模擬人的思維方式和行為。機器學習(Machine Learning,ML)是實現人工智能的一種途徑,是一門專門研究計算機如何模擬或實現人類的學習行為、以獲取新 的知識或技能、重新組織已有的知識結構使之不斷改善自身性能的學科。機器學習包括數據、模型、算法三要素。從實踐上來看,機器學習是在大數據的支撐下,通過各種算法讓機器對數據進行深層次的統 計分析以進行“自學”(訓練模型),使人工智能系統獲得了歸納推理和決策能力。機器學習作為一套數據驅動方法,已廣泛應用于數據 挖掘、自然語言處理、機器視覺、搜索引擎、醫學診斷、生物特征識別、DNA序列測序、證券市場分析等領域。

模型及數據規模增加有利于提高深度神經網絡性能

深度學習(Deep Learning,DL)是機器學習的子集,由人工神經網絡(ANN)組成。深度學習模仿人腦中存在的相似結構, 其學習是通過相互關聯的“神經元”的深層的、多層的“網絡”來進行的。典型的神經網絡從結構上可以分為三層:輸入層、隱藏層、輸出層。其中,輸入層(input layer)是指輸入特征向量;隱藏 層(hidden layer)是指抽象的非線性中間層;輸出層(output layer)是指輸出預測值。深層神經網絡即包含更多隱藏層的神 經網絡。相比于傳統機器學習模型,深度學習神經網絡更能在海量數據上發揮作用。若希望獲得更好的性能,不僅需要訓練一個規模 足夠大的神經網絡(即帶有許多隱藏層的神經網絡,及許多參數及相關性),同時也需要海量的數據支撐。數據的規模及神經網 絡的計算性能,需要有強大的算力作為支撐。

CNN和RNN是常見的神經網絡模型

傳統常見的神經網絡模型包括卷積神經網絡(CNN)和循環神經網絡(RNN)等。其中,卷積神經網絡(Convolutional Neural Network, CNN)多用于計算機視覺、自動駕駛、人臉識別、虛擬現實、醫學領域、人機交互、智能安防等圖像應用;相比于標準神經網絡,CNN能夠 更好地適應高緯度的輸入數據,卷積設計有效減少了模型的參數數量。循環神經網絡(Recurrent Neural Network,RNN)常用于處理序列數據,獲取數據中的時間依賴 性。由于語言都是逐個出現的,同時語言是時序前后相互關聯的數據,因此語言作為最自然表達出來的 序列數據,適合應用RNN進行語音識別、情感分類、機器翻譯、語言生成、命名實體識別等應用。

循環神經網絡(RNN)曾是自然語言處理的首選解決方案。RNN能夠在處理單詞序列時,將處理第一個詞的結果反饋到處理下一個詞的層, 使得模型能夠跟蹤整個句子而非單個單詞。但RNN存在缺點:由于這種串行結構,RNN無法對于長序列文本進行有效處理,甚至可能當初始 單詞過遠時“遺忘”相關信息。

02、Transformer模型結構分析

Transformer模型以Encoder-Decoder架構為基礎

《Attention is all your need》 by OpenAI 。作為與傳統的CNN、RNN不同的深度學習模型架構,Transformer模型最初是被用于基于 上下文的機器翻譯模型。由于Transformer模型非串行結構,能夠并行處理整個序列;同 時引入“注意機制”(attention),能夠在文本序列中正向和反向地跟蹤單詞之間的關 系,適合在大規模分布式集群中進行訓練。Transformer以Encoder-Decoder架構為基礎。其中,編碼組件由多層編碼器(Encoder) 組成。解碼組件也是由相同層數的解碼器(Decoder)組成。Encoder用于提取源端語言 的語義特征,而用Decoder提取目標端語言的語義特征,并生成相對應的譯文。Transformer模型具有能夠并行運算、關注上下文信息、表達能力強等優勢。

Transformer模型結構分析——詞嵌入(Embedding)

詞嵌入是NLP最基礎的概念之一,表示來自詞匯表的單詞或者短語被映射成實數向量。最早的詞嵌入模型是word2vec等神經網絡模型, 屬于靜態詞嵌入(不關注上下文)。例如大模型誕生前常用的RNN模型所用的輸入便是預訓練好的詞嵌入。詞向量能夠將語義信息與空間 向量關聯起來(例如經典的詞類比例子:king、queen、man、woman對應詞向量的關系)。詞嵌入產生要素及步驟:Vocabulary:所有的token組成集合。詞向量表:token與詞向量的一一對應關系。詞向量可以由預訓練產生,也可以是模型參數。查表:輸入的token都對應一個固定維度的浮點數向量(詞嵌入向量)。位置編碼:表示序列中詞的順序,具體方法為為每個輸入的詞添加一個位置向量。根據位置編碼對應計算公式,pos表示位置,i表示維度。位置編碼能夠讓模型學習到token之間的相對位置關系。

Transformer模型結構分析——Encoder

編碼組件可由多層編碼器(Encoder)組成,同樣解碼組件也由相同層數的解碼器(Decoder)組成。一般來講,對于中間層的輸出向量,底層Encoder輸出的表示淺層含義,頂層Encoder輸出的表示深層含義。每個Encoder由兩個子層組成:Self-Attention層(自注意力層)和 Feed Forward Network(FFN,前饋網絡)組成。對于每一層Encoder,詞嵌入向量輸入會首先進入Self-Attention層,Encoder對詞向量進行編碼時,會對整句輸入的上下文均進行Attention操作,從而關注 并使用到輸入句子的上下文的信息。Decoder端存在Cross-Attention層(Encoder-Decoder Attention層),用于解碼時對輸入部分的信息進行Attention關注。

經過Self-Attention層的輸入進入前饋網絡,前饋網絡一般是全連接層網絡(并經過非線性的激活函數,如ReLU函數)。全連接層是最基本的神經網絡,每一個結點都與上一層的所有結點相連。ReLU函數:即修正線性單元(Rectified linear unit),又稱線性整流函數,通常指以斜坡函數及其變種為代表的非線性函數。激活函數:為使神經網絡具有擬合函數的能力而引入非線性;如不引入非線性,則無論多少層神經網絡都相當于一個線性映射。下一個Encoder的輸入是上一個Encoder的輸出,以此類推。

Transformer模型結構分析——Multi-head Attention

Multi-head Attention即多頭注意力機制,采用 多組不同的線性變換對Q、K、V矩陣進行映射并分別 計算Attention,再將不同的Attention結果拼接起 來進行線性變換。Multi-head Attention本質是在參數總量保持不 變的情況下,將Q、K、V映射到高維空間的不同子空 間進行Attention計算,防止過擬合。

03、大規模語言模型算力需求測算(以GPT-3為例)

BERT和GPT是基于Transformer架構的兩種大規模語言模型

構建語言模型(Language Model,LM)是自然語言處理(Natural Language Processing,NLP)中最基本和最 重要的任務之一,自然語言處理基于Transformer架構衍生出了兩種主流大語言模型(Large Language Model, LLM)——BERT和GPT。二者都是無監督預訓練的大語言模型。BERT(Bidirectional Encoder Representations from Transformer)能夠生成深度雙向語言表征,是采用帶 有掩碼(mask)的大語言模型,類似于完形填空,根據上下文預測空缺處的詞語。結構上,BERT僅采用Transformer 架構的Encoder部分。

GPT(Generative Pre-training Transformer)是生成式預訓練的單向語言模型。通過對大量語料數據進行無 監督學習,從而實現文本生成的目的。結構上,GPT僅采用Transformer架構的Decoder部分。自2018年6月起OpenAI發布GPT-1模型以來,GPT更新換代持續提升模型及參數規模。隨著OpenAI于2022年11月30 日發布ChatGPT引爆AI領域,海內外科技公司紛紛宣布發布大語言模型。用戶爆發式增長對大語言模型的算力需求帶 來挑戰。

GPT-1:預訓練+微調的半監督學習模型

《Improving Language Understanding by Generative Pre-Training》 by OpenAI。GPT-1是生成式預訓練模型,核心思想是“預訓練+微調”的半監督學習方法,目標是服務于單序列文本的生成式任務。生成式:表示模型建模的是一段句子出現的概率,可以分解為基于語言序列前序已出現單詞條件下后一單詞出現的條件概率之乘積。四大常見應用:分類、蘊含、相似、選擇,分類:每段文本具有對應標號,將文本按標 號進行分類 ,蘊含:給出一段文本和假設,判斷該段文本 中是否蘊含該假設,相似:判斷兩段文本是否相似(用于搜索、 查詢、去重等) ,選擇:對有多個選項的問題進行回答。

GPT-2:強調多任務的預訓練模型

《Language Models are Unsupervised Multitask Learners》 by OpenAI,預訓練+微調的范式只能對于特定自然語言處理任務(例如問答、機器翻譯、閱讀理解、提取摘要等)使用特定的數據集 進行有監督學習,單一領域數據集缺乏對多種任務訓練的普適性。GPT-2在預訓練階段便引入多任務學習機制,通過加入各種NLP 任務所需要的數據集,在盡可能多的領域和上下文中收集屬于對 應任務的自然語言。由此得到的GPT-2模型可以以zero-shot的方 式被直接應用于下游任務,而無需進行有監督的精調。GPT-2將多樣化的的NLP任務全部轉化為語言模型問題。語言提 供了一種靈活的方式來將任務,輸入和輸出全部指定為一段文本。對文本的生成式建模就是對特定任務進行有監督學習。

GPT-3:能夠舉一反三的大語言模型

《Language Models are Few-Shot Learners》 by OpenAI。相比GPT-2,GPT-3大幅增加了模型參數。GPT-3是具有1750億個參數的自回歸語言模型,更能有效利用上下文 信息。對于特定的下游任務,GPT-3無需進行任何梯度更新或微調,僅需通過與模型交互并提供少量范例即可。特點:1、模型規模急劇增加(使得模型性能提升迅猛);2、實現few-shot learning。in-context learning:對模型進行引導,使其明白應輸出什么內容。Q:你喜歡吃蘋果嗎?A1:我喜歡吃。A2:蘋果是什么?A3:今天天氣真好。A4:Do you like eating apples? 采用prompt提示語:漢譯英:你喜歡吃蘋果嗎?請回答:你喜歡吃蘋果嗎?

GPT-3模型對GPU與AI服務器需求展望

根據結論,1個參數量為1750億個的GPT-3模型在訓練階段需要新增1558顆A100 GPU芯片,對應價值為2337萬美元,需要195臺 DGX A100服務器;在推理階段需要新增70.6萬顆A100 GPU芯片,對應價值為105.95億美元,需要8.8萬臺DGX A100服務器??紤] 一臺DGX A100服務器售價19.9萬美元,則在訓練階段DGX A100服務器價值量為3880.5萬美元,推理階段DGX A100服務器價值量 為175.12億美元。英偉達(Nvidia)是一家人工智能計算公司,其GPU產品和架構為科學計算、人工智能(AI)、數據科學、自動駕駛汽車 (AV)、機器人、元宇宙和3D互聯網應用創建平臺。FY23英偉達收入為269.74億美元。若按上述結論,GPT-3新增GPU價值達到英 偉達公司FY23收入的39.4%。

IDC數據,受益于全球經濟的快速復蘇,2021年用戶對數據中心基礎設施的投資持續上漲,全球服務器市場出貨量為1353.9 萬臺。據TrendForce數據,截至2022年底預計搭載GPGPU(General Purpose GPU)的AI服務器年出貨量占整體服務器比例近1%。若采用上述數據大致估算,GPT-3新增AI服務器數量達到2021年全球AI服務器數量的65.35%。

報告節選:

e77057fa-e567-11ed-ab56-dac502259ad0.jpg

e78029c8-e567-11ed-ab56-dac502259ad0.jpg

e7984c9c-e567-11ed-ab56-dac502259ad0.jpg

e7b64af8-e567-11ed-ab56-dac502259ad0.jpg

e7d8a012-e567-11ed-ab56-dac502259ad0.jpg

e7ec9f0e-e567-11ed-ab56-dac502259ad0.jpg

e7fe12f2-e567-11ed-ab56-dac502259ad0.jpg

e8161f0a-e567-11ed-ab56-dac502259ad0.jpg

e823c560-e567-11ed-ab56-dac502259ad0.jpg

e83e6028-e567-11ed-ab56-dac502259ad0.jpg

e857bbc2-e567-11ed-ab56-dac502259ad0.jpg

e868534c-e567-11ed-ab56-dac502259ad0.jpg

e87bee84-e567-11ed-ab56-dac502259ad0.jpg

e891e96e-e567-11ed-ab56-dac502259ad0.jpg

e8b6ddc8-e567-11ed-ab56-dac502259ad0.jpg

e8d5573a-e567-11ed-ab56-dac502259ad0.jpg

e8ec21fe-e567-11ed-ab56-dac502259ad0.jpg

e90162f8-e567-11ed-ab56-dac502259ad0.jpg

e9168fca-e567-11ed-ab56-dac502259ad0.jpg

e92ba996-e567-11ed-ab56-dac502259ad0.jpg

e93e922c-e567-11ed-ab56-dac502259ad0.jpg

e95619c4-e567-11ed-ab56-dac502259ad0.jpg

e96c366e-e567-11ed-ab56-dac502259ad0.jpg

e97dc668-e567-11ed-ab56-dac502259ad0.jpg

e9921050-e567-11ed-ab56-dac502259ad0.jpg

e9b51550-e567-11ed-ab56-dac502259ad0.jpg

e9c6e992-e567-11ed-ab56-dac502259ad0.jpg

e9dc0c64-e567-11ed-ab56-dac502259ad0.jpg

e9fc0154-e567-11ed-ab56-dac502259ad0.jpg

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4797

    瀏覽量

    102377
  • AI
    AI
    +關注

    關注

    87

    文章

    33559

    瀏覽量

    274283
  • 語言模型
    +關注

    關注

    0

    文章

    557

    瀏覽量

    10607
  • 機器學習
    +關注

    關注

    66

    文章

    8481

    瀏覽量

    133871

原文標題:AI大語言模型的原理、演進及算力測算專題報告

文章出處:【微信號:AIOT大數據,微信公眾號:AIOT大數據】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    RAKsmart高性能服務器集群:驅動AI語言模型開發的引擎

    RAKsmart高性能服務器集群憑借其創新的硬件架構與全棧優化能力,成為支撐大語言模型開發的核心算引擎。下面,AI部落小編帶您了解RAKsmart如何為
    的頭像 發表于 04-15 09:40 ?123次閱讀

    芯片的生態突圍與革命

    據的爆發式增長,大芯片已成為科技競爭的核心領域之一。 ? 大芯片的核心應用場景豐富多樣。在人工智能訓練與推理方面,大模型(如 GPT
    的頭像 發表于 04-13 00:02 ?1268次閱讀

    DeepSeek推動AI需求:800G光模塊的關鍵作用

    隨著人工智能技術的飛速發展,AI需求正以前所未有的速度增長。DeepSeek等大模型的訓練與推理任務對
    發表于 03-25 12:00

    接棒,慧榮科技以主控技術突破AI存儲極限

    電子發燒友網報道(文/黃山明)在AI的高速增長下,尤其是以DeepSeek為代表的AI模型推動存儲需求激增,增長倒逼存
    的頭像 發表于 03-19 01:29 ?1470次閱讀
    存<b class='flag-5'>力</b>接棒<b class='flag-5'>算</b><b class='flag-5'>力</b>,慧榮科技以主控技術突破<b class='flag-5'>AI</b>存儲極限

    中興通訊在AI領域的創新實踐與深度思考

    近日,世界互聯網大會在巴塞羅那世界移動通信大會(MWC 25巴塞羅那)期間,舉辦了以 “打造融合、普惠、綠色的 AI 新生態” 為主題的AI
    的頭像 發表于 03-10 15:47 ?368次閱讀

    AI 報告來了!2025中國AI市場將達 259 億美元

    報告來源:IDC、浪潮信息2月13日,國際數據公司(IDC)攜手浪潮信息,重磅發布《2025年中國人工智能計算發展評估報告》。當下,大模型與生成式人工智能熱度飆升,
    的頭像 發表于 03-07 13:27 ?477次閱讀
    <b class='flag-5'>AI</b> <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>報告</b>來了!2025中國<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>市場將達 259 億美元

    科技云報到:要更要“利”,“精裝”觸發大模型產業新變局?

    科技云報到:要更要“利”,“精裝”觸發大模型產業新變局?
    的頭像 發表于 01-16 10:24 ?312次閱讀

    企業AI租賃模式的好處

    構建和維護一個高效、可擴展的AI基礎設施,不僅需要巨額的初期投資,還涉及復雜的運維管理和持續的技術升級。而AI
    的頭像 發表于 12-24 10:49 ?997次閱讀

    5G-A家庭隨身網絡場景及關鍵技術專題報告發布

    在2024年中國5G發展大會期間,5G-A技術與應用發展論壇在上海成功舉辦。華為云核心網產品線分組領域副總裁曹明榮代表IMT-2020(5G)推進組發布了《家庭隨身網絡場景及關鍵技術專題報告》,介紹了5G-A家庭隨身網絡的應用場景和關鍵技術,為打造隨時隨地全互聯的智慧生活奠定了技術基礎。
    的頭像 發表于 12-12 17:11 ?692次閱讀

    企業AI租賃是什么

    企業AI租賃是指企業通過互聯網向專業的提供商租用所需的計算資源,以滿足其AI應用的需求。
    的頭像 發表于 11-14 09:30 ?2056次閱讀

    AI時代的重要性及現狀:平衡發展與優化配置的挑戰

    AI時代,扮演著至關重要的角色。如果說數據是AI模型的“燃料”,那么
    的頭像 發表于 11-04 11:45 ?935次閱讀

    中國大會召開,業界首個高質量評估體系發布

    首次完整地構建了人工智能時代高質量的理論體系,并探索性提出業界首個 "五位一體"的高質量評估體系。 發布現場 在當前由大模型和AIG
    的頭像 發表于 09-28 16:50 ?381次閱讀
    中國<b class='flag-5'>算</b><b class='flag-5'>力</b>大會召開,業界首個<b class='flag-5'>算</b><b class='flag-5'>力</b>高質量評估體系發布

    開啟全新AI時代 智能嵌入式系統快速發展——“第六屆國產嵌入式操作系統技術與產業發展論壇”圓滿結束

    航空計算技術研究所研究員崔西寧做了“AI時代的機載嵌入式操作系統”專題報告。 崔西寧回顧了機載軟件技術發展歷程,介紹機載智能計算的演進之路,分享了天脈操作系統現狀和發展計劃。 圖3崔西寧在做
    發表于 08-30 17:24

    模型時代的需求

    現在AI已進入大模型時代,各企業都爭相部署大模型,但如何保證大模型,以及相關的穩定性和性能
    發表于 08-20 09:04
    主站蜘蛛池模板: 毛片毛片 | 特黄特色视频 | 国产成在线观看免费视频 | 美女自熨出白浆视频在线播放 | 六月丁香综合网 | 38pao强力打造永久免费高清视频 | 亚洲国产成人久久笫一页 | 不卡视频一区二区三区 | 日韩一级一欧美一级国产 | 加勒比色综合 | 人人上人人干 | 国产午夜精品一区二区 | 五月激情六月丁香 | 日韩毛片免费线上观看 | 日本激情网 | 亚洲图片综合区另类图片 | 亚洲欧美日韩另类精品一区二区三区 | 清纯唯美亚洲综合一区 | 狠狠色噜狠狠狠狠色综合久 | 成视频年人黄网站免费视频 | 五月婷婷丁香色 | 成人欧美精品久久久久影院 | 四虎影院永久在线观看 | 特黄aa级毛片免费视频播放 | 五月婷婷六月综合 | 日韩在线毛片 | 午夜视频免费在线 | 特黄特级高清免费视频毛片 | 国产特黄一级一片免费 | 新版天堂资源中文在线 | 一级日本大片免费观看视频 | 色婷婷六月桃花综合影院 | 亚洲аv电影天堂网 | 国产一级免费视频 | 欧美性天天影视 | 看片国产| 亚洲第一区第二区 | 免费视频一区二区性色 | 深点再深一点好爽好多水 | h网站国产| 男人的天堂在线免费视频 |