在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

聚焦 | 新技術(shù)“紅”不過十年?半監(jiān)督學(xué)習(xí)卻成例外?

mK5P_AItists ? 來源:YXQ ? 2019-06-18 17:24 ? 次閱讀

這一波深度學(xué)習(xí)的發(fā)展,以2006年Hinton發(fā)表Deep Belief Networks的論文為起點(diǎn),到今年已經(jīng)超過了10年。從過往學(xué)術(shù)界和產(chǎn)業(yè)界對(duì)新技術(shù)的追捧周期,超過10年的是極少數(shù)。從深度學(xué)習(xí)所屬的機(jī)器學(xué)習(xí)領(lǐng)域來看,到底什么樣的方向能夠支撐這個(gè)領(lǐng)域繼續(xù)蓬勃發(fā)展下去,讓學(xué)術(shù)界和產(chǎn)業(yè)界都能持續(xù)投入和產(chǎn)出,就目前來看,半監(jiān)督學(xué)習(xí)是一個(gè)很有潛力的方向。

機(jī)器學(xué)習(xí)范式的發(fā)展

傳統(tǒng)機(jī)器學(xué)習(xí)的解決路徑可以表示為:

ML Solution = ML expertise + Computation + Data

其中ML expertise是機(jī)器學(xué)習(xí)專家,負(fù)責(zé)特征工程、機(jī)器學(xué)習(xí)模型設(shè)計(jì)和最終的訓(xùn)練,是整個(gè)機(jī)器學(xué)習(xí)解決方案效果的關(guān)鍵因素。Computation是計(jì)算能力,代表具體選擇什么的硬件去承載專家設(shè)計(jì)的優(yōu)化方案。這個(gè)部分一般來說窮有窮的打法,富有富的策略:以CTR預(yù)估為例,小廠設(shè)備不多,資源不足,那么可能GBDT就是一個(gè)不錯(cuò)的選擇;大廠的話,資源相對(duì)富裕,那么各種DNN就上來了。Data無論做什么業(yè)務(wù),或多或少也都有一些,C端產(chǎn)品的話,上線后總會(huì)有用戶反饋可以做為label;B端產(chǎn)品的話,以我曾經(jīng)搞過的圖片識(shí)別為例,定向爬蟲和人工標(biāo)注也能弄到有標(biāo)簽樣本。Data總會(huì)有,無外乎多少的區(qū)別。

這里就存在一個(gè)問題,Computation和Data即便有了,也不一定有很匹配的人來把整個(gè)事情串聯(lián)運(yùn)用起來,發(fā)揮最終的價(jià)值。21世紀(jì),最貴的是人才;為什么貴?因?yàn)橄∪薄S谑谴蠹揖驮谙耄懿荒馨褭C(jī)器學(xué)習(xí)問題的解決路徑改為:

New ML Solution = 100x Computation + 100x Data

簡(jiǎn)而言之,就是用更多地Computation和Data代替人的作用。100x Computation替代人工模型設(shè)計(jì),這兩年也得到了長(zhǎng)足的發(fā)展,這就是AutoML。狹義的來看AutoML,NAS和Meta Learning在學(xué)術(shù)界工業(yè)界都有不錯(cuò)的進(jìn)展。尤其是NAS,2017年Zoph和Le發(fā)表的Neural Architecture Search with Reinforcement Learning作為引爆點(diǎn),快速形成了一個(gè)火爆的研究領(lǐng)域,主要思路是通過RNN controller來sample神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練這個(gè)網(wǎng)絡(luò)結(jié)構(gòu),以這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的指標(biāo)作為RL的reward優(yōu)化這個(gè)controller,讓這個(gè)controller能夠sample出更有效的網(wǎng)絡(luò)結(jié)構(gòu)。

Controller訓(xùn)練過程

這個(gè)領(lǐng)域后續(xù)還有一些列出色的工作,但由于不是今天討論的重點(diǎn),暫且按下不表,有時(shí)間再寫一篇關(guān)于NAS的從認(rèn)知到實(shí)踐。

100x Data聽上去就是一個(gè)很有誘惑力的事情,因?yàn)楦嗟臄?shù)據(jù),往往意味著更好的效果。以最近異常火爆的BERT和GPT2,都被認(rèn)為是大力出奇跡的暴力美學(xué)典范。大量的數(shù)據(jù)帶來效果提高了人們對(duì)當(dāng)前AI的認(rèn)知邊界,GPT2生成的文本就是一個(gè)很好的例子。但是數(shù)據(jù)規(guī)模的擴(kuò)大,往往意味著某方面成本的提升。廣告CTR預(yù)估,100x的樣本要么是DAU增長(zhǎng)了100倍,要么是出了100x的廣告(估計(jì)會(huì)被用戶打死的),都不太真實(shí);圖片的人工標(biāo)注增長(zhǎng)100x即便金錢成本能接受,時(shí)間成本也太長(zhǎng),猜想ImageNet如果1億標(biāo)注樣本,估計(jì)CV的發(fā)展還會(huì)有更多的爆發(fā)點(diǎn)。

在談半監(jiān)督學(xué)習(xí)的進(jìn)展前,我們先看看另一個(gè)機(jī)器學(xué)習(xí)方向在解決數(shù)據(jù)不足和數(shù)據(jù)稀疏上的努力。

Multi-Task Learning

Multi-Task Learning是指不同的任務(wù)之間通過共享全部或者部分模型參數(shù),相互輔助,相互遷移,共同提高的機(jī)器學(xué)習(xí)方法。實(shí)際使用過程中,Multi-Task Learning由于多個(gè)任務(wù)共享參數(shù),還能帶來Serving Cost的下降,在學(xué)術(shù)界和工業(yè)界都有不少相關(guān)工作,并且在一些數(shù)據(jù)上取得了不錯(cuò)的進(jìn)展。

Multi-Task Learning由于不同任務(wù)之間可以相互輔助學(xué)習(xí),往往數(shù)據(jù)稀疏的任務(wù)能夠從數(shù)據(jù)豐富的任務(wù)收益,得到提高,同時(shí)數(shù)據(jù)豐富任務(wù)還不怎么受影響或者微弱提升。這在一定程度上緩解了數(shù)據(jù)量的需求。

最近幾年比較好的Multi-Task Learning工作,首先讓我比較有印象的是Cross-stitch。Cross-stitch通過在Multi-Task的表達(dá)學(xué)習(xí)中,通過權(quán)重轉(zhuǎn)換矩陣 alpha_{AB} 或者 alpha_{BA} 直接獲得另一個(gè)任務(wù)的中間表示信息,這種方案在效果上比傳統(tǒng)的Shared Bottom靈活,也減少了模型參數(shù)被某一個(gè)任務(wù)完全主導(dǎo)的風(fēng)險(xiǎn)。

Cross-stitch子結(jié)構(gòu)

后來的ESSM跟Cross-stitch有異曲同工之妙,只是將任務(wù)的學(xué)習(xí)方向改為單向:pCVR單向從pCTR中學(xué)習(xí),以滿足業(yè)務(wù)上的邏輯因果關(guān)系。

ESSM學(xué)習(xí)框架

Multi-Task Learning最近比較有意思的工作,SNR應(yīng)該算一個(gè),思路主要收到Mixture-of-Expert的啟發(fā)(Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer:這篇文章背后的思想其實(shí)是Google解決大規(guī)模機(jī)器學(xué)習(xí)的新思路,完全值得開篇另述!),不同的任務(wù)走不同的網(wǎng)絡(luò)路由,即不同的任務(wù)會(huì)由不同的Experts組合預(yù)估,而Experts總量固定,在不同任務(wù)間是部分共享的。對(duì)比Cross-stitch,每個(gè)任務(wù)都必須使用另外任務(wù)的信息,這種網(wǎng)絡(luò)架構(gòu)設(shè)計(jì),使得不同任務(wù)的Expert既有獨(dú)立又有共享。具體的獨(dú)立和共享方式,每個(gè)任務(wù)通過模型訓(xùn)練學(xué)習(xí)得到,比較好的平衡了任務(wù)的獨(dú)立性和共通性。SNR還使用了稀疏路由的思想,使得每個(gè)任務(wù)在保證效果的前提下經(jīng)過最少的Experts,降低計(jì)算量。

Multi-Task Learning在學(xué)術(shù)界和工業(yè)界都獲得了不俗的成績(jī),但是也有一個(gè)要命的短板,需要另外一個(gè)數(shù)據(jù)豐富且能夠?qū)W習(xí)比較好的任務(wù)幫忙。這個(gè)要求限制了Multi-Task Learning發(fā)揮的空間,因?yàn)楹芏嗲闆r下,不僅沒有其他任務(wù),僅有的任務(wù)label也很匱乏,于是半監(jiān)督學(xué)習(xí)就有了用武之地。

半監(jiān)督學(xué)習(xí)

半監(jiān)督學(xué)習(xí)通常情況下,只有少量的有l(wèi)abel數(shù)據(jù),但是可以獲得大量的無label數(shù)據(jù),在這種情況下希望能夠獲得跟監(jiān)督學(xué)習(xí)獲得相似甚至相同的效果。半監(jiān)督學(xué)習(xí)的歷史其實(shí)已經(jīng)也比較久遠(yuǎn)了,2009年Chapalle編著的Semi-Supervised Learning,就對(duì)其定義和原理做了詳細(xì)介紹。在計(jì)算力隨著深度學(xué)習(xí)的熱潮快速發(fā)展的同時(shí),大量的label貧困任務(wù)出現(xiàn),于是半監(jiān)督學(xué)習(xí)也越來越重要。

半監(jiān)督學(xué)習(xí)近兩年最有亮點(diǎn)的工作當(dāng)屬發(fā)表在EMNLP'2018的Phrase-Based & Neural Unsupervised Machine Translation,大幅提升了半監(jiān)督機(jī)器機(jī)器翻譯的SOTA。

翻譯訓(xùn)練過程示意

在整個(gè)訓(xùn)練過程中,B)先對(duì)其兩種語言的work級(jí)別翻譯,然后C)針對(duì)兩種語言分別學(xué)一個(gè)Language Model,獲得語言分布,最后D)再根據(jù)語言分布反復(fù)使用Back-Translation在已知的少量句對(duì)上翻譯獲得最終模型。這種方案大幅提高了在對(duì)齊句對(duì)不多的語種之間的翻譯質(zhì)量,同時(shí)由于其novelty,獲得了EMNLP'2018的Best Paper Award,初讀此文時(shí)有一種眼前一亮的感覺。(盡管標(biāo)題叫Unsupervised Machine Translation,但是實(shí)際上利用到了部分label數(shù)據(jù),我更愿意將其歸類為Semi-Supervised Machine Translation。)

最近Google的研究人員又提出來一種新的半監(jiān)督訓(xùn)練方法MixMatch,這種方法號(hào)稱是Holistic的,綜合運(yùn)用了:A)distribution average; B)temperature sharpening; C)MixUp with labeled and unlabeled data. 其訓(xùn)練過程如下:

這個(gè)方法在CIFAR-10上只有250個(gè)label時(shí)能將錯(cuò)誤率從38%降到11%,令人印象深刻。『江山代有才人出』,另一波Google的研究人員提出了UDA,在我看來這種方法更為徹底,也更加End-to-End。UDA主要利用數(shù)據(jù)分布的連續(xù)性和一致性,在輸入有擾動(dòng)的情況下,輸出應(yīng)該保持穩(wěn)定,于是對(duì)于unlabeled data增加了一個(gè)損失函數(shù):

即有擾動(dòng)和無擾動(dòng)的unlabeled data的預(yù)估分布的KL距離應(yīng)該非常小,同時(shí)數(shù)據(jù)擾動(dòng)用盡可能貼近任務(wù)本身的方法去做,比如圖像用AutoArgument,文本用上面提到的Back-Translation和Word Replacement。

UDA訓(xùn)練示意

UDA的效果在文本和圖像上都得到了很好地驗(yàn)證,大幅降低標(biāo)注數(shù)據(jù)不足情況下得錯(cuò)誤率;更值得關(guān)注的一點(diǎn)是,即便在ImageNet這種標(biāo)注數(shù)據(jù)已經(jīng)非常多的情況下,再使用UDA依然能帶來效果的提升,說明UDA在數(shù)據(jù)分布擬合上具有很好地通用性。

結(jié)語

總體來看,半監(jiān)督機(jī)器學(xué)習(xí)無論是采用聚類、圖傳播、數(shù)據(jù)增強(qiáng)還是泛化學(xué)習(xí),主要依據(jù)的理論基礎(chǔ)都是labeled和unlabeled data在分布上的連續(xù)性和一致性,因此機(jī)器學(xué)習(xí)方法可以利用這點(diǎn)進(jìn)行有效的結(jié)構(gòu)化學(xué)習(xí),增強(qiáng)模型的表征能力,進(jìn)而很好地提高預(yù)測(cè)效果。雖然半監(jiān)督機(jī)器學(xué)習(xí)已經(jīng)取得了一些很好的結(jié)果,從近兩年ICML、ICLR和NeurIPS等會(huì)議看,相關(guān)工作也越來越多,但是還遠(yuǎn)沒有到CV中的ResNet和NLP中的BERT的水平,要實(shí)現(xiàn)100x Data真正發(fā)揮作用,還需要學(xué)術(shù)界和工業(yè)界共同努力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:新技術(shù)“紅”不過十年,半監(jiān)督學(xué)習(xí)為什么是個(gè)例外?

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    睿創(chuàng)微納五&十年功勛員工頒獎(jiǎng)大會(huì)圓滿舉行

    12月11日,睿創(chuàng)微納五&十年功勛員工頒獎(jiǎng)大會(huì)在煙臺(tái)園區(qū)圓滿舉行,公司董事長(zhǎng)帶領(lǐng)核心管理團(tuán)隊(duì)為5、10功勛員工頒發(fā)紀(jì)念銀幣和金幣。?? 百余名員工獲頒紀(jì)念銀幣,以表彰他們五
    的頭像 發(fā)表于 12-12 10:35 ?635次閱讀

    聚焦離子束技術(shù)的歷史發(fā)展

    。FIB技術(shù)的起源FIB技術(shù)的歷史可以追溯到20世紀(jì)60代,當(dāng)時(shí)科學(xué)家們開始探索使用離子束對(duì)樣品進(jìn)行分析和加工的可能性。在隨后的幾十年里,這項(xiàng)技術(shù)
    的頭像 發(fā)表于 12-05 15:32 ?505次閱讀
    <b class='flag-5'>聚焦</b>離子束<b class='flag-5'>技術(shù)</b>的歷史發(fā)展

    時(shí)空引導(dǎo)下的時(shí)間序列自監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】最近,香港科技大學(xué)、上海AI Lab等多個(gè)組織聯(lián)合發(fā)布了一篇時(shí)間序列無監(jiān)督預(yù)訓(xùn)練的文章,相比原來的TS2Vec等時(shí)間序列表示學(xué)習(xí)工作,核心在于提出了將空間信息融入到預(yù)訓(xùn)練階段,即在預(yù)訓(xùn)練階段
    的頭像 發(fā)表于 11-15 11:41 ?572次閱讀
    時(shí)空引導(dǎo)下的時(shí)間序列自<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>框架

    何小鵬宣布未來十年愿景,加速全球化AI汽車布局

    在11月6日的小鵬AI科技日上,小鵬汽車董事長(zhǎng)何小鵬分享了公司的宏偉藍(lán)圖,即在未來十年內(nèi),將小鵬汽車打造成為一家享譽(yù)全球的AI汽車公司。   何小鵬感慨地表示,過去往往是國(guó)外的先進(jìn)技術(shù)涌入中國(guó),而現(xiàn)在,他自豪地宣布,小鵬汽車正將科技的火種播撒到世界各地。
    的頭像 發(fā)表于 11-07 13:40 ?839次閱讀

    沃達(dá)豐與谷歌深化十年戰(zhàn)略合作

    沃達(dá)豐近日宣布,其與全球科技巨頭谷歌的戰(zhàn)略合作伙伴關(guān)系得到了進(jìn)一步深化。這一為期十年的協(xié)議,總價(jià)值超過10億美元,旨在將谷歌最新推出的生成式人工智能支持的設(shè)備引入歐洲和非洲市場(chǎng),為沃達(dá)豐的廣大客戶提供更為先進(jìn)和智能的服務(wù)體驗(yàn)。
    的頭像 發(fā)表于 10-09 16:22 ?406次閱讀

    特斯拉與晶圓廠商或簽訂十年長(zhǎng)單,深化供應(yīng)鏈合作

    韓國(guó)領(lǐng)先的晶圓代工廠商?hào)|部高科正積極籌備與美國(guó)電動(dòng)汽車巨頭特斯拉簽署一項(xiàng)意義重大的長(zhǎng)期供貨協(xié)議,聚焦于電源管理芯片(PMIC)的代工合作。據(jù)悉,該合同若順利獲得最終批準(zhǔn),將鎖定至少十年的合作期限,目前雙方正處于合同簽署前的最后驗(yàn)證階段。
    的頭像 發(fā)表于 09-25 16:08 ?1494次閱讀

    2024激光顯示技術(shù)與產(chǎn)業(yè)發(fā)展大會(huì):共繪未來十年藍(lán)圖

    20249月19日,第五屆激光顯示技術(shù)與產(chǎn)業(yè)發(fā)展大會(huì)在青島盛大召開,恰逢激光電視誕生十周年之際,此次盛會(huì)匯聚了政產(chǎn)學(xué)研各界的精英代表,共同探討激光顯示技術(shù)的創(chuàng)新路徑與未來發(fā)展。會(huì)上,
    的頭像 發(fā)表于 09-20 16:27 ?1281次閱讀

    哪種嵌入式處理器架構(gòu)將引領(lǐng)未來十年的發(fā)展?

    一段時(shí)間以來,許多工程師和開發(fā)人員一直在討論嵌入式處理器架構(gòu)的未來。雖然嵌入式芯片架構(gòu)市場(chǎng)上有明確的引領(lǐng)者,但該行業(yè)正在快速擴(kuò)張,預(yù)計(jì)未來幾年將出現(xiàn)許多新的機(jī)會(huì)。當(dāng)然,在這樣的熱門行業(yè)中,永遠(yuǎn)有創(chuàng)新技術(shù)和新產(chǎn)品的一席之地。 因此,關(guān)鍵的問題仍然是——哪種技術(shù)將在未來
    的頭像 發(fā)表于 08-30 15:03 ?490次閱讀
    哪種嵌入式處理器架構(gòu)將引領(lǐng)未來<b class='flag-5'>十年</b>的發(fā)展?

    十年預(yù)言:Chiplet的使命

    未來十年內(nèi)芯片算力提升的核心動(dòng)力。 議題一: 算力困局如何突圍? 韓銀和研究員: 現(xiàn)有的高性能計(jì)算架構(gòu)正遭遇算力瓶頸。目前全球頂級(jí)的高性能計(jì)算系統(tǒng),由美國(guó)橡樹嶺國(guó)家實(shí)驗(yàn)室基于HPE Cray EX235a架構(gòu)研發(fā)的超級(jí)計(jì)算機(jī)Frontier,其算
    的頭像 發(fā)表于 08-27 11:09 ?660次閱讀
    <b class='flag-5'>十年</b>預(yù)言:Chiplet的使命

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    收集海量的文本數(shù)據(jù)作為訓(xùn)練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學(xué)習(xí),還包括對(duì)語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學(xué)習(xí):模型采用自監(jiān)督學(xué)習(xí)策略,在大量無標(biāo)簽文本數(shù)據(jù)上學(xué)習(xí)
    發(fā)表于 08-02 11:03

    BOE京東方與聯(lián)合國(guó)教科文組織UNESCO簽訂合作協(xié)議 成為首個(gè)支持聯(lián)合國(guó)“科學(xué)十年”的中國(guó)科技企業(yè)

    法國(guó)時(shí)間7月25日,BOE(京東方)與聯(lián)合國(guó)教科文組織(UNESCO)在法國(guó)巴黎總部基于《2024—2033科學(xué)促進(jìn)可持續(xù)發(fā)展國(guó)際十年》決議(簡(jiǎn)稱“科學(xué)十年”)簽訂為期三的合作伙伴
    的頭像 發(fā)表于 07-26 13:04 ?480次閱讀
    BOE京東方與聯(lián)合國(guó)教科文組織UNESCO簽訂合作協(xié)議 成為首個(gè)支持聯(lián)合國(guó)“科學(xué)<b class='flag-5'>十年</b>”的中國(guó)科技企業(yè)

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機(jī)器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強(qiáng)化
    發(fā)表于 07-25 14:33

    神經(jīng)網(wǎng)絡(luò)如何用無監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方式對(duì)于大規(guī)模未
    的頭像 發(fā)表于 07-09 18:06 ?1214次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、聚類算法等,并分析它們的原理、應(yīng)用場(chǎng)景以及優(yōu)
    的頭像 發(fā)表于 07-09 10:50 ?1351次閱讀

    聯(lián)發(fā)科談未來十年的戰(zhàn)略布局

    聯(lián)發(fā)科在近日舉行的股東大會(huì)上,明確了其未來十年的戰(zhàn)略布局。董事長(zhǎng)蔡明介表示,公司將重點(diǎn)投入5G、AI、車用及Arm構(gòu)架運(yùn)算市場(chǎng),以謀求長(zhǎng)遠(yuǎn)發(fā)展。
    的頭像 發(fā)表于 05-29 10:39 ?762次閱讀
    主站蜘蛛池模板: 一级做a爱片在线播放 | 一级特级片 | 久久xxxx| 人与牲动交xxxxbbbb高清 | 天天狠天天天天透在线 | 8050网午夜一级毛片免费不卡 | 亚洲色图综合图区 | a免费在线 | 在线播放视频网站 | 亚洲欧美7777| www.4虎影院| 一区二区三区免费精品视频 | 亚洲夜夜骑 | 日本黄色高清视频 | 日本网站免费 | 正在播放久久 | 99热这里只有精品69 | freesexvideo性欧美tv| 亚洲免费视频一区 | 色多多入口 | 三级高清| 五月天婷婷精品视频 | 免费人成在线观看网站品爱网 | 天天做天天爱夜夜大爽完整 | 91网站网站网站在线 | 日韩成人一级 | 开心丁香婷婷深爱五月 | 男人日女人视频免费看 | 黄色免费网站在线 | 老色99久久九九精品尤物 | 国产午夜久久精品 | 国模在线视频 | 在线成人精品国产区免费 | 一级毛片在线 | 美女爱爱网站 | 国产精品嫩草影院人体模特 | 日本黄色美女视频 | 九色视频在线播放 | caoporn97人人做人人爱最新 | 欧美黄色片免费观看 | 5g成人影院 |