在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度模型Adan優(yōu)化器如何完成ViT的訓(xùn)練

CVer ? 來源:新智元 ? 作者:新智元 ? 2022-10-31 17:03 ? 次閱讀

自Google提出Vision Transformer(ViT)以來,ViT漸漸成為許多視覺任務(wù)的默認(rèn)backbone。憑借著ViT結(jié)構(gòu),許多視覺任務(wù)的SoTA都得到了進(jìn)一步提升,包括圖像分類、分割、檢測(cè)、識(shí)別等。

然而,訓(xùn)練ViT并非易事。除了需要較復(fù)雜的訓(xùn)練技巧,模型訓(xùn)練的計(jì)算量往往也較之前的CNN大很多。近日,新加坡Sea AI LAB (SAIL) 和北大ZERO Lab的研究團(tuán)隊(duì)共同提出新的深度模型優(yōu)化器Adan,該優(yōu)化器可以僅用一半的計(jì)算量就能完成ViT的訓(xùn)練。

此外,在計(jì)算量一樣的情況下, Adan在多個(gè)場(chǎng)景(涉及CV、NLP、RL)、多種訓(xùn)練方式(有監(jiān)督與自監(jiān)督)和多種網(wǎng)絡(luò)結(jié)構(gòu)/算法(Swin、ViT、ResNet、ConvNext、MAE、LSTM、BERT、Transformer-XL、PPO算法)上,均獲得了性能提升。

代碼、配置文件、訓(xùn)練log均已開源。

深度模型的訓(xùn)練范式與優(yōu)化器

隨著ViT的提出,深度模型的訓(xùn)練方式變得越來越復(fù)雜。常見的訓(xùn)練技巧包括復(fù)雜的數(shù)據(jù)增強(qiáng)(如MixUp、CutMix、AutoRand)、標(biāo)簽的處理(如label smoothing和noise label)、模型參數(shù)的移動(dòng)平均、隨機(jī)網(wǎng)絡(luò)深度、dropout等。伴隨著這些技巧的混合運(yùn)用,模型的泛化性與魯棒性均得到了提升,但是隨之而來的便是模型訓(xùn)練的計(jì)算量變得越來越大。

在ImageNet 1k上,訓(xùn)練epoch數(shù)從ResNet剛提出的90已經(jīng)增長到了訓(xùn)練ViT常用的300。甚至針對(duì)一些自監(jiān)督學(xué)習(xí)的模型,例如MAE、ViT,預(yù)訓(xùn)練的epoch數(shù)已經(jīng)達(dá)到了1.6k。訓(xùn)練epoch增加意味著訓(xùn)練時(shí)間極大的延長,急劇增加了學(xué)術(shù)研究或工業(yè)落地的成本。目前一個(gè)普遍的解決方案是增大訓(xùn)練的batch size并輔助并行訓(xùn)練以減少訓(xùn)練時(shí)間,但是伴隨的問題便是,大的batch size往往意味著performance的下降,并且batch size越大,情況越明顯。

這主要是因?yàn)槟P蛥?shù)的更新次數(shù)隨著batch size的增加在急劇減少。當(dāng)前的優(yōu)化器并不能在復(fù)雜的訓(xùn)練范式下以較少的更新次數(shù)實(shí)現(xiàn)對(duì)模型的快速訓(xùn)練,這進(jìn)一步加劇了模型訓(xùn)練epoch數(shù)的增長。

因此,是否存在一種新的優(yōu)化器能在較少的參數(shù)更新次數(shù)情況下更快更好地訓(xùn)練深度模型?在減少訓(xùn)練epoch數(shù)的同時(shí),也能緩解batch size增加帶來的負(fù)面影響?

被忽略的沖量

要想加速優(yōu)化器的收斂速度,最直接的方法便是引入沖量。近年提出的深度模型優(yōu)化器均沿用著Adam中使用的沖量范式——重球法:

78e2dfac-57a4-11ed-a3b6-dac502259ad0.png

其中g(shù)_k是隨機(jī)噪聲,m_k是moment,eta是學(xué)習(xí)率。Adam將m_k的更新由累積形式換成了移動(dòng)平均的形式,并引入二階moment(n_k)對(duì)學(xué)習(xí)率進(jìn)行放縮,即:

78f78b1e-57a4-11ed-a3b6-dac502259ad0.png

然而隨著Adam訓(xùn)練原始ViT失敗,它的改進(jìn)版本AdamW漸漸地變成了訓(xùn)練ViT甚至ConvNext的首選。但是AdamW并沒有改變Adam中的沖量范式,因此在當(dāng)batch size超過4,096的時(shí)候,AdamW訓(xùn)練出的ViT的性能會(huì)急劇下降。

在傳統(tǒng)凸優(yōu)化領(lǐng)域,有一個(gè)與重球法齊名的沖量技巧——Nesterov沖量算法:

790dbe16-57a4-11ed-a3b6-dac502259ad0.png

Nesterov沖量算法在光滑且一般凸的問題上,擁有比重球法更快的理論收斂速度,并且理論上也能承受更大的batch size。同重球法不同的是,Nesterov算法不在當(dāng)前點(diǎn)計(jì)算梯度,而是利用沖量找到一個(gè)外推點(diǎn),在該點(diǎn)算完梯度以后再進(jìn)行沖量累積。

外推點(diǎn)能幫助Nesterov算法提前感知當(dāng)前點(diǎn)周圍的幾何信息。這種特性使得Nesterov沖量更加適合復(fù)雜的訓(xùn)練范式和模型結(jié)構(gòu)(如ViT),因?yàn)樗⒉皇菃渭兊匾揽窟^去的沖量去繞開尖銳的局部極小點(diǎn),而是通過提前觀察周圍的梯度,調(diào)整更新的方向。

盡管Nesterov沖量算法擁有一定的優(yōu)勢(shì),但是在深度優(yōu)化器中,卻鮮有被應(yīng)用與探索。其中一個(gè)主要的原因就是Nesterov算法需要在外推點(diǎn)計(jì)算梯度,在當(dāng)前點(diǎn)更新,期間需要多次模型參數(shù)重載以及需要人為地在外推點(diǎn)進(jìn)行back-propagation (BP)。這些不便利性極大地限制了Nesterov沖量算法在深度模型優(yōu)化器中的應(yīng)用。

Adan優(yōu)化器

通過結(jié)合改寫的Nesterov沖量與自適應(yīng)優(yōu)化算法,并引入解耦的權(quán)重衰減,可以得到最終的Adan優(yōu)化器。利用外推點(diǎn),Adan可以提前感知周圍的梯度信息,從而高效地逃離尖銳的局部極小區(qū)域,以增加模型的泛化性。

1) 自適應(yīng)的Nesterov沖量

為了解決Nesterov沖量算法中多次模型參數(shù)重載的問題,研究人員首先對(duì)Nesterov進(jìn)行改寫:

7923f38e-57a4-11ed-a3b6-dac502259ad0.png

可以證明,改寫的Nesterov沖量算法與原算法等價(jià),兩者的迭代點(diǎn)可以相互轉(zhuǎn)化,且最終的收斂點(diǎn)相同。可以看到,通過引入梯度的差分項(xiàng),已經(jīng)可以避免手動(dòng)的參數(shù)重載和人為地在外推點(diǎn)進(jìn)行BP。

將改寫的Nesterov沖量算法同自適應(yīng)類優(yōu)化器相結(jié)合——將m_k的更新由累積形式替換為移動(dòng)平均形式,并使用二階moment對(duì)學(xué)習(xí)率進(jìn)行放縮:

79394cca-57a4-11ed-a3b6-dac502259ad0.png

至此已經(jīng)得到了Adan的算法的基礎(chǔ)版本。

2) 梯度差分的沖量

可以發(fā)現(xiàn),m_k的更新將梯度與梯度的差分耦合在一起,但是在實(shí)際場(chǎng)景中,往往需要對(duì)物理意義不同的兩項(xiàng)進(jìn)行單獨(dú)處理,因此研究人員引入梯度差分的沖量v_k:

794c6986-57a4-11ed-a3b6-dac502259ad0.png

這里對(duì)梯度的沖量和其差分的沖量設(shè)置不同的沖量/平均系數(shù)。梯度差分項(xiàng)可以在相鄰梯度不一致的時(shí)候減緩優(yōu)化器的更新,反之,在梯度方向一致時(shí),加速更新。

3) 解耦的權(quán)重衰減

對(duì)于帶L2權(quán)重正則的目標(biāo)函數(shù),目前較流行的AdamW優(yōu)化器通過對(duì)L2正則與訓(xùn)練loss解耦,在ViT和ConvNext上獲得了較好的性能。但是AdamW所用的解耦方法偏向于啟發(fā)式,目前并不能得到其收斂的理論保證。

基于對(duì)L2正則解耦的思想,也給Adan引入解耦的權(quán)重衰減策略。目前Adan的每次迭代可以看成是在最小化優(yōu)化目標(biāo)F的某種一階近似:

79631dc0-57a4-11ed-a3b6-dac502259ad0.jpg

由于F中的L2權(quán)重正則過于簡(jiǎn)單且光滑性很好,以至于不需要對(duì)其進(jìn)行一階近似。因此,可以只對(duì)訓(xùn)練loss進(jìn)行一階近似而忽略L2權(quán)重正則,那么Adan的最后一步迭代將會(huì)變成:

7976c38e-57a4-11ed-a3b6-dac502259ad0.png

有趣的是,可以發(fā)現(xiàn)AdamW的更新準(zhǔn)則是Adan更新準(zhǔn)則在學(xué)習(xí)率eta接近0時(shí)的一階近似。因此,可從proximal 算子的角度給Adan甚至AdamW給出合理的解釋而不是原來的啟發(fā)式改進(jìn)。

4) Adan優(yōu)化器

將2)和3)兩個(gè)改進(jìn)結(jié)合進(jìn)Adan的基礎(chǔ)版本,可以得到如下的Adan優(yōu)化器。

798c55a0-57a4-11ed-a3b6-dac502259ad0.png

Adan結(jié)合了自適應(yīng)優(yōu)化器、Nesterov沖量以及解耦的權(quán)重衰減策略的優(yōu)點(diǎn),能承受更大的學(xué)習(xí)率和batch size,以及可以實(shí)現(xiàn)對(duì)模型參數(shù)的動(dòng)態(tài)L2正則。

5) 收斂性分析

這里跳過繁復(fù)的數(shù)學(xué)分析過程,只給出結(jié)論:

定理:在給定或未給定Hessian-smooth條件的兩種情況下,Adan優(yōu)化器的收斂速度在非凸隨機(jī)優(yōu)化問題上均能達(dá)到已知的理論下界,并且該結(jié)論在帶有解耦的權(quán)重衰減策略時(shí)仍然成立。

實(shí)驗(yàn)結(jié)果

一、CV場(chǎng)景

1)有監(jiān)督學(xué)習(xí)——ViT模型

針對(duì)ViT模型,研究人員分別在ViT和Swin結(jié)構(gòu)上,測(cè)試了Adan的性能。

79b366a4-57a4-11ed-a3b6-dac502259ad0.png

可以看到,例如在ViT-small、ViT-base、Swin-tiny以及Swin-base上,Adan僅僅消耗了一半的計(jì)算資源就獲得了同SoTA優(yōu)化器接近的結(jié)果,并且在同樣的計(jì)算量下,Adan在兩種ViT模型上均展現(xiàn)出較大的優(yōu)勢(shì)。

此外,也在大batch size下測(cè)試了Adan的性能:

7a0c2334-57a4-11ed-a3b6-dac502259ad0.png

可以看到,Adan在各種batch size下都表現(xiàn)得不錯(cuò),且相對(duì)于專為大batch size設(shè)計(jì)的優(yōu)化器(LAMB)也具有一定的優(yōu)勢(shì)。

2)有監(jiān)督學(xué)習(xí)——CNN模型

除了較難訓(xùn)練的ViT模型,研究人員也在尖銳局部極小點(diǎn)相對(duì)較少的CNN模型上也測(cè)試了Adan的性能——包括經(jīng)典的ResNet與較先進(jìn)的ConvNext。結(jié)果如下:

7a20f354-57a4-11ed-a3b6-dac502259ad0.png

可以觀察到,不管是ResNet還是ConvNext,Adan均能在大約2/3訓(xùn)練epoch以內(nèi)獲得超越SoTA的性能。

3) 無監(jiān)督學(xué)習(xí)

在無監(jiān)督訓(xùn)練框架下,研究人員在最新提出的MAE上測(cè)試了Adan的表現(xiàn)。其結(jié)果如下:

7a49a722-57a4-11ed-a3b6-dac502259ad0.png

同有監(jiān)督學(xué)習(xí)的結(jié)論一致,Adan僅消耗了一半的計(jì)算量就追平甚至超過了原來的SoTA優(yōu)化器,并且當(dāng)訓(xùn)練epoch越小,Adan的優(yōu)勢(shì)就越明顯。

二、NLP場(chǎng)景

1) 有監(jiān)督學(xué)習(xí)

在NLP的有監(jiān)督學(xué)習(xí)任務(wù)上,分別在經(jīng)典的LSTM以及先進(jìn)的Transformer-XL上觀察Adan的表現(xiàn)。

7a6571e6-57a4-11ed-a3b6-dac502259ad0.png

Adan在上述兩種網(wǎng)絡(luò)上,均表現(xiàn)出一致的優(yōu)越性。并且對(duì)于Transformer-XL,Adan在一半的訓(xùn)練步數(shù)內(nèi)就追平了默認(rèn)的Adam優(yōu)化器。

2) 無監(jiān)督學(xué)習(xí)

為了測(cè)試Adan在NLP場(chǎng)景下無監(jiān)督任務(wù)上的模型訓(xùn)練情況。研究人員從頭開始訓(xùn)練BERT:在經(jīng)過1000k的預(yù)訓(xùn)練迭代后,在GLUE數(shù)據(jù)集的7個(gè)子任務(wù)上測(cè)試經(jīng)過Adan訓(xùn)練的模型性能,結(jié)果如下:

7a87df60-57a4-11ed-a3b6-dac502259ad0.png

Adan在所測(cè)試的7個(gè)詞句分類任務(wù)上均展現(xiàn)出較大的優(yōu)勢(shì)。值得一提的是,經(jīng)過Adan訓(xùn)練的BERT-base模型,在一些子任務(wù)上(例如RTE、CoLA以及SST-2)的結(jié)果甚至超過了Adam訓(xùn)練的BERT-large.

三、RL場(chǎng)景

研究人員將RL常用的PPO算法里的優(yōu)化器替換為了Adan,并在MuJoCo引擎中的4個(gè)游戲上測(cè)試了Adan的性能。在4個(gè)游戲中,用Adan作為網(wǎng)絡(luò)優(yōu)化器的PPO算法,總能獲得較高的reward。

7aa89a20-57a4-11ed-a3b6-dac502259ad0.png

Adan在RL的網(wǎng)絡(luò)訓(xùn)練中,也表現(xiàn)出較大的潛力。

結(jié)論與展望

Adan優(yōu)化器為目前的深度模型優(yōu)化器引入了新的沖量范式。在復(fù)雜的訓(xùn)練范式下以較少的更新次數(shù)實(shí)現(xiàn)對(duì)模型的快速訓(xùn)練。

實(shí)驗(yàn)顯示,Adan僅需1/2-2/3的計(jì)算量就能追平現(xiàn)有的SoTA優(yōu)化器。

Adan在多個(gè)場(chǎng)景(涉及CV、NLP、RL)、多個(gè)訓(xùn)練方式(有監(jiān)督與自監(jiān)督)和多種網(wǎng)絡(luò)結(jié)構(gòu)(ViT、CNN、LSTM、Transformer等)上,均展現(xiàn)出較大的性能優(yōu)勢(shì)。此外,Adan優(yōu)化器的收斂速度在非凸隨機(jī)優(yōu)化上也已經(jīng)達(dá)到了理論下界。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7246

    瀏覽量

    91110
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4371

    瀏覽量

    64280
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3499

    瀏覽量

    50056

原文標(biāo)題:訓(xùn)練ViT和MAE減少一半計(jì)算量!Sea和北大提出新優(yōu)化器Adan:深度模型都能用!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何才能高效地進(jìn)行深度學(xué)習(xí)模型訓(xùn)練

    分布式深度學(xué)習(xí)框架中,包括數(shù)據(jù)/模型切分、本地單機(jī)優(yōu)化算法訓(xùn)練、通信機(jī)制、和數(shù)據(jù)/模型聚合等模塊。現(xiàn)有的算法一般采用隨機(jī)置亂切分的數(shù)據(jù)分配方
    的頭像 發(fā)表于 07-09 08:48 ?1.4w次閱讀
    如何才能高效地進(jìn)行<b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>?

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型
    發(fā)表于 01-14 16:51

    Pytorch模型訓(xùn)練實(shí)用PDF教程【中文】

    本教程以實(shí)際應(yīng)用、工程開發(fā)為目的,著重介紹模型訓(xùn)練過程中遇到的實(shí)際問題和方法。在機(jī)器學(xué)習(xí)模型開發(fā)中,主要涉及三大部分,分別是數(shù)據(jù)、模型和損失函數(shù)及優(yōu)
    發(fā)表于 12-21 09:18

    深度融合模型的特點(diǎn)

    深度融合模型的特點(diǎn),背景深度學(xué)習(xí)模型訓(xùn)練完成之后,部署并應(yīng)用在生產(chǎn)環(huán)境的這一步至關(guān)重要,畢竟
    發(fā)表于 07-16 06:08

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    到準(zhǔn)備模型,然后再在邊緣的嵌入式系統(tǒng)上運(yùn)行。訓(xùn)練深度學(xué)習(xí)模型是過程的工作量和時(shí)間密集型部分,其中通過提供需要時(shí)間和
    發(fā)表于 10-27 06:34

    探索一種降低ViT模型訓(xùn)練成本的方法

    ,Transformer架構(gòu)已成為大量計(jì)算機(jī)視覺模型的關(guān)鍵組成部分。然而,訓(xùn)練大型變壓模型通常需要付出巨大的成本。例如,在4個(gè)GPU上訓(xùn)練
    發(fā)表于 11-24 14:56

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載

    深度模型中的優(yōu)化與學(xué)習(xí)課件下載
    發(fā)表于 04-07 16:21 ?3次下載
    <b class='flag-5'>深度</b><b class='flag-5'>模型</b>中的<b class='flag-5'>優(yōu)化</b>與學(xué)習(xí)課件下載

    基于預(yù)訓(xùn)練模型和長短期記憶網(wǎng)絡(luò)的深度學(xué)習(xí)模型

    作為模型的初始化詞向量。但是,隨機(jī)詞向量存在不具備語乂和語法信息的缺點(diǎn);預(yù)訓(xùn)練詞向量存在¨一詞-乂”的缺點(diǎn),無法為模型提供具備上下文依賴的詞向量。針對(duì)該問題,提岀了一種基于預(yù)訓(xùn)練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和長短期記憶網(wǎng)絡(luò)的<b class='flag-5'>深度</b>學(xué)習(xí)<b class='flag-5'>模型</b>

    什么是預(yù)訓(xùn)練 AI 模型

    預(yù)訓(xùn)練 AI 模型是為了完成特定任務(wù)而在大型數(shù)據(jù)集上訓(xùn)練深度學(xué)習(xí)模型。這些
    的頭像 發(fā)表于 04-04 01:45 ?1811次閱讀

    什么是預(yù)訓(xùn)練AI模型

    預(yù)訓(xùn)練 AI 模型是為了完成特定任務(wù)而在大型數(shù)據(jù)集上訓(xùn)練深度學(xué)習(xí)模型。這些
    的頭像 發(fā)表于 05-25 17:10 ?1387次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    模型,以便將來能夠進(jìn)行準(zhǔn)確的預(yù)測(cè)。推理是指在訓(xùn)練完成后,使用已經(jīng)訓(xùn)練好的模型進(jìn)行新的預(yù)測(cè)。然而,深度
    的頭像 發(fā)表于 08-17 16:03 ?1676次閱讀

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來得到了廣泛的應(yīng)用,從圖像識(shí)別、語音識(shí)別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個(gè)高效準(zhǔn)確的深度學(xué)習(xí)模型并不容易。不僅需要有高質(zhì)量的數(shù)
    的頭像 發(fā)表于 12-07 12:38 ?1454次閱讀
    <b class='flag-5'>深度</b>學(xué)習(xí)如何<b class='flag-5'>訓(xùn)練</b>出好的<b class='flag-5'>模型</b>

    深度學(xué)習(xí)的模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型訓(xùn)練過程中,往往會(huì)遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)模型進(jìn)行
    的頭像 發(fā)表于 07-01 11:41 ?1656次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?2464次閱讀

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    深度學(xué)習(xí)模型的魯棒性優(yōu)化是一個(gè)復(fù)雜但至關(guān)重要的任務(wù),它涉及多個(gè)方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與增強(qiáng) 數(shù)據(jù)清洗 :去除數(shù)據(jù)中的噪聲和異常值,這是提高
    的頭像 發(fā)表于 11-11 10:25 ?935次閱讀
    主站蜘蛛池模板: 国产精品嫩草影院一二三区入口 | 天堂在线最新资源 | 中文永久免费看电视网站入口 | 欧美啊片 | 国产三级黄色毛片 | 未满十八18周岁禁止免费国产 | 欧美一区二区三区高清视频 | 欧美草逼 | 欧色美 | 色猫成人网 | 手机看片久久青草福利盒子 | 免费一级黄色录像 | 凹厕所xxxxbbbb偷拍视频 | 69pao强力打造在线 | 操美女视频网站 | 亚洲精品网站日本xxxxxxx | 亚洲成人www | 毛片色毛片18毛片美女 | 国产又色又爽又黄的网站在线一级 | 久久手机免费视频 | 婷婷激情四射网 | 四虎最新永久免费网址 | 天堂在线视频精品 | 免费性bbbb台湾 | 夜夜夜夜爽 | 亚洲入口| 亚洲一本视频 | 亚洲欧美一区二区三区麻豆 | 欧美成人免费全部观看天天性色 | h网站在线| 日本一级高清不卡视频在线 | 亚洲一级毛片免费在线观看 | 天天操天天干天天摸 | 色婷婷免费视频 | 在线视频观看免费 | 真实国产伦子系 | 国产福利vr专区精品 | 国产拍拍1000部ww | you ji z z日本人在线观看 | 色视频免费看 | 加勒比一木道|视频在线看 加勒比在线免费视频 |