在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

常見的最優(yōu)化方法介紹

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2020-11-24 09:23 ? 次閱讀

目錄

梯度下降法

牛頓法和擬牛頓法

共軛梯度法

啟發(fā)式優(yōu)化方法

解決約束優(yōu)化問題——拉格朗日乘數(shù)法

我們每個(gè)人都會(huì)在我們的生活或者工作中遇到各種各樣的最優(yōu)化問題,比如每個(gè)企業(yè)和個(gè)人都要考慮的一個(gè)問題“在一定成本下,如何使利潤(rùn)最大化”等。最優(yōu)化方法是一種數(shù)學(xué)方法,它是研究在給定約束之下如何尋求某些因素(的量),以使某一(或某些)指標(biāo)達(dá)到最優(yōu)的一些學(xué)科的總稱。隨著學(xué)習(xí)的深入,博主越來越發(fā)現(xiàn)最優(yōu)化方法的重要性,學(xué)習(xí)和工作中遇到的大多問題都可以建模成一種最優(yōu)化模型進(jìn)行求解,比如我們現(xiàn)在學(xué)習(xí)的機(jī)器學(xué)習(xí)算法,大部分的機(jī)器學(xué)習(xí)算法的本質(zhì)都是建立優(yōu)化模型,通過最優(yōu)化方法對(duì)目標(biāo)函數(shù)(或損失函數(shù))進(jìn)行優(yōu)化,從而訓(xùn)練出最好的模型。常見的最優(yōu)化方法有梯度下降法、牛頓法和擬牛頓法、共軛梯度法等等。

1. 梯度下降法(Gradient Descent)

梯度下降法是最早最簡(jiǎn)單,也是最為常用的最優(yōu)化方法。梯度下降法實(shí)現(xiàn)簡(jiǎn)單,當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局解。一般情況下,其解不保證是全局最優(yōu)解,梯度下降法的速度也未必是最快的。梯度下降法的優(yōu)化思想是用當(dāng)前位置負(fù)梯度方向作為搜索方向,因?yàn)樵摲较驗(yàn)楫?dāng)前位置的最快下降方向,所以也被稱為是”最速下降法“。最速下降法越接近目標(biāo)值,步長(zhǎng)越小,前進(jìn)越慢。梯度下降法的搜索迭代示意圖如下圖所示:

梯度下降法的缺點(diǎn):

(1)靠近極小值時(shí)收斂速度減慢,如下圖所示;

(2)直線搜索時(shí)可能會(huì)產(chǎn)生一些問題;

(3)可能會(huì)“之字形”地下降。

從上圖可以看出,梯度下降法在接近最優(yōu)解的區(qū)域收斂速度明顯變慢,利用梯度下降法求解需要很多次的迭代。

在機(jī)器學(xué)習(xí)中,基于基本的梯度下降法發(fā)展了兩種梯度下降方法,分別為隨機(jī)梯度下降法和批量梯度下降法。

比如對(duì)一個(gè)線性回歸(Linear Logistics)模型,假設(shè)下面的h(x)是要擬合的函數(shù),J(theta)為損失函數(shù),theta是參數(shù),要迭代求解的值,theta求解出來了,那最終要擬合的函數(shù)h(theta)就出來了。其中m是訓(xùn)練集的樣本個(gè)數(shù),n是特征的個(gè)數(shù)。

1)批量梯度下降法(Batch Gradient Descent,BGD)

(1)將J(theta)對(duì)theta求偏導(dǎo),得到每個(gè)theta對(duì)應(yīng)的的梯度:

(2)由于是要最小化風(fēng)險(xiǎn)函數(shù),所以按每個(gè)參數(shù)theta的梯度負(fù)方向,來更新每個(gè)theta:

(3)從上面公式可以注意到,它得到的是一個(gè)全局最優(yōu)解,但是每迭代一步,都要用到訓(xùn)練集所有的數(shù)據(jù),如果m很大,那么可想而知這種方法的迭代速度會(huì)相當(dāng)?shù)穆K裕@就引入了另外一種方法——隨機(jī)梯度下降。

對(duì)于批量梯度下降法,樣本個(gè)數(shù)m,x為n維向量,一次迭代需要把m個(gè)樣本全部帶入計(jì)算,迭代一次計(jì)算量為m*n2。

2)隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)

(1)上面的風(fēng)險(xiǎn)函數(shù)可以寫成如下這種形式,損失函數(shù)對(duì)應(yīng)的是訓(xùn)練集中每個(gè)樣本的梯度,而上面批量梯度下降對(duì)應(yīng)的是所有的訓(xùn)練樣本:

(2)每個(gè)樣本的損失函數(shù),對(duì)theta求偏導(dǎo)得到對(duì)應(yīng)梯度,來更新theta:

(3)隨機(jī)梯度下降是通過每個(gè)樣本來迭代更新一次,如果樣本量很大的情況(例如幾十萬(wàn)),那么可能只用其中幾萬(wàn)條或者幾千條的樣本,就已經(jīng)將theta迭代到最優(yōu)解了,對(duì)比上面的批量梯度下降,迭代一次需要用到十幾萬(wàn)訓(xùn)練樣本,一次迭代不可能最優(yōu),如果迭代10次的話就需要遍歷訓(xùn)練樣本10次。但是,SGD伴隨的一個(gè)問題是噪音較BGD要多,使得SGD并不是每次迭代都向著整體最優(yōu)化方向。

隨機(jī)梯度下降每次迭代只使用一個(gè)樣本,迭代一次計(jì)算量為n2,當(dāng)樣本個(gè)數(shù)m很大的時(shí)候,隨機(jī)梯度下降迭代一次的速度要遠(yuǎn)高于批量梯度下降方法。兩者的關(guān)系可以這樣理解:隨機(jī)梯度下降方法以損失很小的一部分精確度和增加一定數(shù)量的迭代次數(shù)為代價(jià),換取了總體的優(yōu)化效率的提升。增加的迭代次數(shù)遠(yuǎn)遠(yuǎn)小于樣本的數(shù)量。

對(duì)批量梯度下降法和隨機(jī)梯度下降法的總結(jié):

批量梯度下降---最小化所有訓(xùn)練樣本的損失函數(shù),使得最終求解的是全局的最優(yōu)解,即求解的參數(shù)是使得風(fēng)險(xiǎn)函數(shù)最小,但是對(duì)于大規(guī)模樣本問題效率低下。

隨機(jī)梯度下降---最小化每條樣本的損失函數(shù),雖然不是每次迭代得到的損失函數(shù)都向著全局最優(yōu)方向, 但是大的整體的方向是向全局最優(yōu)解的,最終的結(jié)果往往是在全局最優(yōu)解附近,適用于大規(guī)模訓(xùn)練樣本情況。

2. 牛頓法和擬牛頓法(Newton's method &Quasi-Newton Methods)

1)牛頓法(Newton's method)

牛頓法是一種在實(shí)數(shù)域和復(fù)數(shù)域上近似求解方程的方法。方法使用函數(shù)f(x)的泰勒級(jí)數(shù)的前面幾項(xiàng)來尋找方程f(x) = 0的根。牛頓法最大的特點(diǎn)就在于它的收斂速度很快。

具體步驟:

首先,選擇一個(gè)接近函數(shù)f(x)零點(diǎn)的x0,計(jì)算相應(yīng)的f(x0)和切線斜率f '(x0)(這里f '表示函數(shù)f 的導(dǎo)數(shù))。然后我們計(jì)算穿過點(diǎn)(x0, f (x0))并且斜率為f'(x0)的直線和x軸的交點(diǎn)的x坐標(biāo),也就是求如下方程的解:

我們將新求得的點(diǎn)的x坐標(biāo)命名為x1,通常x1會(huì)比x0更接近方程f (x) = 0的解。因此我們現(xiàn)在可以利用x1開始下一輪迭代。迭代公式可化簡(jiǎn)為如下所示:

已經(jīng)證明,如果f '是連續(xù)的,并且待求的零點(diǎn)x是孤立的,那么在零點(diǎn)x周圍存在一個(gè)區(qū)域,只要初始值x0位于這個(gè)鄰近區(qū)域內(nèi),那么牛頓法必定收斂。并且,如果f ' (x)不為0, 那么牛頓法將具有平方收斂的性能. 粗略的說,這意味著每迭代一次,牛頓法結(jié)果的有效數(shù)字將增加一倍。

由于牛頓法是基于當(dāng)前位置的切線來確定下一次的位置,所以牛頓法又被很形象地稱為是"切線法"。牛頓法的搜索路徑(二維情況)如下圖所示:

牛頓法搜索動(dòng)態(tài)示例圖:

關(guān)于牛頓法和梯度下降法的效率對(duì)比:

從本質(zhì)上去看,牛頓法是二階收斂,梯度下降是一階收斂,所以牛頓法就更快。如果更通俗地說的話,比如你想找一條最短的路徑走到一個(gè)盆地的最底部,梯度下降法每次只從你當(dāng)前所處位置選一個(gè)坡度最大的方向走一步,牛頓法在選擇方向時(shí),不僅會(huì)考慮坡度是否夠大,還會(huì)考慮你走了一步之后,坡度是否會(huì)變得更大。所以,可以說牛頓法比梯度下降法看得更遠(yuǎn)一點(diǎn),能更快地走到最底部。(牛頓法目光更加長(zhǎng)遠(yuǎn),所以少走彎路;相對(duì)而言,梯度下降法只考慮了局部的最優(yōu),沒有全局思想。)

根據(jù)wiki上的解釋,從幾何上說,牛頓法就是用一個(gè)二次曲面去擬合你當(dāng)前所處位置的局部曲面,而梯度下降法是用一個(gè)平面去擬合當(dāng)前的局部曲面,通常情況下,二次曲面的擬合會(huì)比平面更好,所以牛頓法選擇的下降路徑會(huì)更符合真實(shí)的最優(yōu)下降路徑。

注:紅色的牛頓法的迭代路徑,綠色的是梯度下降法的迭代路徑。

牛頓法的優(yōu)缺點(diǎn)總結(jié):

優(yōu)點(diǎn):二階收斂,收斂速度快;

缺點(diǎn):牛頓法是一種迭代算法,每一步都需要求解目標(biāo)函數(shù)的Hessian矩陣的逆矩陣,計(jì)算比較復(fù)雜。

2)擬牛頓法(Quasi-Newton Methods)

擬牛頓法是求解非線性優(yōu)化問題最有效的方法之一,于20世紀(jì)50年代由美國(guó)Argonne國(guó)家實(shí)驗(yàn)室的物理學(xué)家W.C.Davidon所提出來。Davidon設(shè)計(jì)的這種算法在當(dāng)時(shí)看來是非線性優(yōu)化領(lǐng)域最具創(chuàng)造性的發(fā)明之一。不久R. Fletcher和M. J. D. Powell證實(shí)了這種新的算法遠(yuǎn)比其他方法快速和可靠,使得非線性優(yōu)化這門學(xué)科在一夜之間突飛猛進(jìn)。

擬牛頓法的本質(zhì)思想是改善牛頓法每次需要求解復(fù)雜的Hessian矩陣的逆矩陣的缺陷,它使用正定矩陣來近似Hessian矩陣的逆,從而簡(jiǎn)化了運(yùn)算的復(fù)雜度。擬牛頓法和最速下降法一樣只要求每一步迭代時(shí)知道目標(biāo)函數(shù)的梯度。通過測(cè)量梯度的變化,構(gòu)造一個(gè)目標(biāo)函數(shù)的模型使之足以產(chǎn)生超線性收斂性。這類方法大大優(yōu)于最速下降法,尤其對(duì)于困難的問題。另外,因?yàn)閿M牛頓法不需要二階導(dǎo)數(shù)的信息,所以有時(shí)比牛頓法更為有效。如今,優(yōu)化軟件中包含了大量的擬牛頓算法用來解決無約束,約束,和大規(guī)模的優(yōu)化問題。

具體步驟:

擬牛頓法的基本思想如下。首先構(gòu)造目標(biāo)函數(shù)在當(dāng)前迭代xk的二次模型:

這里Bk是一個(gè)對(duì)稱正定矩陣,于是我們?nèi)∵@個(gè)二次模型的最優(yōu)解作為搜索方向,并且得到新的迭代點(diǎn):

其中我們要求步長(zhǎng)ak滿足Wolfe條件。這樣的迭代與牛頓法類似,區(qū)別就在于用近似的Hesse矩陣Bk代替真實(shí)的Hesse矩陣。所以擬牛頓法最關(guān)鍵的地方就是每一步迭代中矩陣Bk

的更新。現(xiàn)在假設(shè)得到一個(gè)新的迭代xk+1,并得到一個(gè)新的二次模型:

我們盡可能地利用上一步的信息來選取Bk。具體地,我們要求

從而得到

這個(gè)公式被稱為割線方程。常用的擬牛頓法有DFP算法和BFGS算法。

3. 共軛梯度法(Conjugate Gradient)

共軛梯度法是介于最速下降法與牛頓法之間的一個(gè)方法,它僅需利用一階導(dǎo)數(shù)信息,但克服了最速下降法收斂慢的缺點(diǎn),又避免了牛頓法需要存儲(chǔ)和計(jì)算Hesse矩陣并求逆的缺點(diǎn),共軛梯度法不僅是解決大型線性方程組最有用的方法之一,也是解大型非線性最優(yōu)化最有效的算法之一。在各種優(yōu)化算法中,共軛梯度法是非常重要的一種。其優(yōu)點(diǎn)是所需存儲(chǔ)量小,具有步收斂性,穩(wěn)定性高,而且不需要任何外來參數(shù)。

具體的實(shí)現(xiàn)步驟請(qǐng)參加wiki百科共軛梯度法。

下圖為共軛梯度法和梯度下降法搜索最優(yōu)解的路徑對(duì)比示意圖:

注:綠色為梯度下降法,紅色代表共軛梯度法

MATLAB代碼:

function [x] = conjgrad(A,b,x) r=b-A*x; p=r; rsold=r'*r; for i=1:length(b) Ap=A*p; alpha=rsold/(p'*Ap); x=x+alpha*p; r=r-alpha*Ap; rsnew=r'*r; if sqrt(rsnew)<1e-10 ? ? ? ? ? ? ?break; ? ? ? ?end ? ? ? ?p=r+(rsnew/rsold)*p; ? ? ? ?rsold=rsnew; ? ?endend

4. 啟發(fā)式優(yōu)化方法

啟發(fā)式方法指人在解決問題時(shí)所采取的一種根據(jù)經(jīng)驗(yàn)規(guī)則進(jìn)行發(fā)現(xiàn)的方法。其特點(diǎn)是在解決問題時(shí),利用過去的經(jīng)驗(yàn),選擇已經(jīng)行之有效的方法,而不是系統(tǒng)地、以確定的步驟去尋求答案。啟發(fā)式優(yōu)化方法種類繁多,包括經(jīng)典的模擬退火方法、遺傳算法、蟻群算法以及粒子群算法等等。

還有一種特殊的優(yōu)化算法被稱之多目標(biāo)優(yōu)化算法,它主要針對(duì)同時(shí)優(yōu)化多個(gè)目標(biāo)(兩個(gè)及兩個(gè)以上)的優(yōu)化問題,這方面比較經(jīng)典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4631

    瀏覽量

    93425
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4346

    瀏覽量

    63018
  • 梯度
    +關(guān)注

    關(guān)注

    0

    文章

    30

    瀏覽量

    10355

原文標(biāo)題:常見的幾種最優(yōu)化方法

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    帶通濾波器的設(shè)計(jì)步驟與優(yōu)化方法

    帶通濾波器作為信號(hào)處理領(lǐng)域的重要組件,其設(shè)計(jì)步驟與優(yōu)化方法對(duì)于確保濾波器性能滿足特定應(yīng)用需求至關(guān)重要。本文將詳細(xì)闡述帶通濾波器的設(shè)計(jì)步驟,并深入探討優(yōu)化方法,以期為相關(guān)領(lǐng)域的研究者和工
    的頭像 發(fā)表于 02-05 16:48 ?120次閱讀

    焊接技術(shù)流程優(yōu)化方法

    焊接方法的選擇對(duì)焊接質(zhì)量有著直接影響。常見的焊接方法包括電弧焊、氣體保護(hù)焊、激光焊等。每種方法都有其特點(diǎn)和適用范圍,選擇合適的焊接方法可以
    的頭像 發(fā)表于 01-19 13:52 ?374次閱讀

    交換機(jī)常見故障及解決方法 如何優(yōu)化交換機(jī)的性能

    交換機(jī)常見故障及解決方法 交換機(jī)的常見故障主要包括物理層故障、端口協(xié)商及自環(huán)問題、VLAN問題、設(shè)備兼容性問題以及其他問題。以下是對(duì)這些故障及其解決方法的詳細(xì)闡述: 物理層故障 硬件故
    的頭像 發(fā)表于 12-12 18:02 ?981次閱讀

    AI大模型的性能優(yōu)化方法

    AI大模型的性能優(yōu)化是一個(gè)復(fù)雜而關(guān)鍵的任務(wù),涉及多個(gè)方面和策略。以下是一些主要的性能優(yōu)化方法: 一、模型壓縮與優(yōu)化 模型蒸餾(Model Distillation) 原理:通過訓(xùn)練一個(gè)
    的頭像 發(fā)表于 10-23 15:01 ?1091次閱讀

    常見的機(jī)械分選方法有哪些

    機(jī)械分選是一種利用物料的物理性質(zhì)差異(如大小、形狀、密度、磁性等)來實(shí)現(xiàn)物料分離的技術(shù)。在工業(yè)生產(chǎn)中,機(jī)械分選廣泛應(yīng)用于礦物加工、農(nóng)業(yè)、食品加工、回收利用等領(lǐng)域。以下是一些常見的機(jī)械分選方法介紹
    的頭像 發(fā)表于 09-25 15:38 ?1082次閱讀

    25G/28G重定時(shí)器與轉(zhuǎn)接驅(qū)動(dòng)器在常見應(yīng)用中的最優(yōu)化實(shí)現(xiàn)

    電子發(fā)燒友網(wǎng)站提供《25G/28G重定時(shí)器與轉(zhuǎn)接驅(qū)動(dòng)器在常見應(yīng)用中的最優(yōu)化實(shí)現(xiàn).pdf》資料免費(fèi)下載
    發(fā)表于 09-06 11:26 ?0次下載
    25G/28G重定時(shí)器與轉(zhuǎn)接驅(qū)動(dòng)器在<b class='flag-5'>常見</b>應(yīng)用中的<b class='flag-5'>最優(yōu)化</b>實(shí)現(xiàn)

    常見的測(cè)量電池內(nèi)阻的方法

    測(cè)量電池內(nèi)阻的方法多種多樣,每種方法都有其獨(dú)特的原理和適用范圍。以下是一些常見的測(cè)量電池內(nèi)阻的方法
    的頭像 發(fā)表于 08-13 18:14 ?3815次閱讀

    深度學(xué)習(xí)的模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會(huì)遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)模型進(jìn)行優(yōu)化與調(diào)試是確保其性能優(yōu)越的關(guān)鍵步驟。本文將從數(shù)據(jù)預(yù)處理、模型設(shè)計(jì)、超參數(shù)調(diào)整、正則化、模型集成以及調(diào)試與驗(yàn)證等方面,詳細(xì)介紹深度學(xué)習(xí)的模型
    的頭像 發(fā)表于 07-01 11:41 ?1032次閱讀

    溫度傳感器的常見故障及處理方法

    溫度傳感器是工業(yè)和日常生活中非常重要的設(shè)備,用于測(cè)量和監(jiān)控溫度。以下是一些常見的溫度傳感器故障及其處理方法: 傳感器讀數(shù)不準(zhǔn)確 : 原因 :可能是由于傳感器老化、污垢積累、環(huán)境干擾或校準(zhǔn)不當(dāng)。 處理
    的頭像 發(fā)表于 06-20 09:11 ?4538次閱讀

    常見的電機(jī)速度控制方法

      電機(jī)速度控制是電機(jī)應(yīng)用領(lǐng)域的核心技術(shù)之一,它直接關(guān)系到電機(jī)運(yùn)行效率、穩(wěn)定性和使用壽命。隨著電機(jī)技術(shù)的不斷發(fā)展,電機(jī)速度控制方法也日益多樣化。本文將從電機(jī)速度控制的基本原理出發(fā),詳細(xì)介紹幾種常見的電機(jī)速度控制
    的頭像 發(fā)表于 06-19 11:50 ?1988次閱讀

    常見的PWM脈寬調(diào)制方法

    等設(shè)備的精確控制。本文將詳細(xì)介紹PWM脈寬調(diào)制的方法,包括其基本原理、常見的調(diào)制方法以及應(yīng)用實(shí)例等,旨在為讀者提供全面而深入的了解。
    的頭像 發(fā)表于 06-19 10:47 ?1283次閱讀

    雷達(dá)物位計(jì)的常見故障及維修方法

    雷達(dá)物位計(jì)在使用過程中可能會(huì)遇到多種故障,以下是一些常見故障及其維修方法的清晰分點(diǎn)表示和歸納
    的頭像 發(fā)表于 06-08 17:22 ?2251次閱讀

    鴻蒙OpenHarmony:【常見編譯問題和解決方法

    常見編譯問題和解決方法
    的頭像 發(fā)表于 05-11 16:09 ?2519次閱讀

    常見的DC電源模塊故障及解決方法

    BOSHIDA 常見的DC電源模塊故障及解決方法 DC電源模塊廣泛應(yīng)用于各種電子設(shè)備中,為其提供穩(wěn)定的直流電源。然而,由于長(zhǎng)期使用或其他原因,DC電源模塊有時(shí)會(huì)出現(xiàn)故障。本文將介紹一些常見
    的頭像 發(fā)表于 04-01 14:02 ?1512次閱讀
    <b class='flag-5'>常見</b>的DC電源模塊故障及解決<b class='flag-5'>方法</b>

    電子束光刻的參數(shù)優(yōu)化常見問題介紹

    本文從光刻圖案設(shè)計(jì)、特征尺寸、電鏡參數(shù)優(yōu)化等方面介紹電子束光刻的參數(shù)優(yōu)化,最后介紹了一些常見問題。
    的頭像 發(fā)表于 03-17 14:33 ?1279次閱讀
    電子束光刻的參數(shù)<b class='flag-5'>優(yōu)化</b>及<b class='flag-5'>常見</b>問題<b class='flag-5'>介紹</b>
    主站蜘蛛池模板: 色视频网址 | 在线观看成人网 | 韩国韩宝贝2020vip福利视频 | 天天舔天天射天天操 | 狠狠干网址| 五月六月伊人狠狠丁香网 | 天天噜噜噜 | 在线观看免费视频一区 | 夜夜精品视频 | 久久大香线蕉综合爱 | 韩国三级无遮挡床戏视频 | 日本电影在线观看黄 | 26uuu另类欧美亚洲曰本 | 色五五月 | 国内精品免费视频精选在线观看 | 日本黄色三级视频 | 玖操在线 | 日韩成人一级 | 成人国产一区 | 久久久久国产精品免费看 | 理论片久久 | 加勒比精品久久一区二区三区 | 性欧美xx| 欧美整片第一页 | 欧美性猛交xxxx乱大交 | 好色成人网 | 亚洲 午夜在线一区 | 美女扒开尿囗给男人玩的动图 | 国产va免费精品 | 日韩性xxx | 147西西人体大胆免费网 | 欧美乱妇15p| 性欧美xxxx视频 | 韩国十八禁毛片无遮挡 | 偷偷鲁影院手机在线观看 | h录音 国产 在线 | 五月激情婷婷丁香 | 丁香六月啪啪 | 丁香婷婷网| 亚洲综合视频一区 | 三级a黄|