在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于Entity-Linking及基于Retreval的方法

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:圓圓的算法筆記 ? 作者:圓圓的算法筆記 ? 2022-07-13 14:29 ? 次閱讀

NLP預(yù)訓(xùn)練模型需要非常大的參數(shù)量以及非常多的語(yǔ)料信息,這些都是希望能盡可能多的記住文本中的知識(shí),以此提升下游任務(wù)效果。相比而言,直接從數(shù)據(jù)庫(kù)、知識(shí)圖譜、搜索引擎等引入外部知識(shí)進(jìn)行知識(shí)增強(qiáng),是一種更直接、節(jié)省資源的方法。知識(shí)增強(qiáng)也是NLP未來(lái)的重要發(fā)展方向,由于在NLU這種需要理解、常識(shí)性知識(shí)的領(lǐng)域,知識(shí)增強(qiáng)更加重要。

ACL 2022的一篇Tutorial:Knowledge-Augmented Methods for Natural Language Understanding,對(duì)知識(shí)增強(qiáng)在NLU中的方法進(jìn)行了詳細(xì)匯總。本文整理了這篇Tutorial中重點(diǎn)介紹知識(shí)增強(qiáng)模型的10篇工作,包括基于Entity-Linking的方法以及基于Retreval的方法兩大類。

Entity-Linking based methodsERNIE: Enhanced Language Representation with Informative Entities(ACL 2019)

ERNIE利用知識(shí)圖譜中的實(shí)體信息給BERT模型引入外部知識(shí),提升預(yù)訓(xùn)練語(yǔ)言模型效果。模型主要包括Text-Encoder和Knowledge-Encoder兩個(gè)部分。在輸入部分,除了原始的文本維度embedding,還會(huì)引入實(shí)體embedding,實(shí)體embedding利用TrasE算法基于知識(shí)圖譜進(jìn)行預(yù)訓(xùn)練。Text-Encoder和BERT相同,對(duì)原始的文本輸入進(jìn)行處理生成文本表示。Knowledge-Encoder將文本和對(duì)應(yīng)位置的entity表示進(jìn)行融合,得到實(shí)體知識(shí)增強(qiáng)的表示。Knowledge-Encoder的整個(gè)計(jì)算過(guò)程如下圖,首先利用兩個(gè)獨(dú)立的multi-head attention生成文本word embedding和entity embedding,再將實(shí)體和對(duì)應(yīng)位置的文本進(jìn)行對(duì)齊,輸入到融合層,再通過(guò)融合層生成新的word embedding和entity embedding,這樣循環(huán)多層得到最終結(jié)果。

eeee622a-026d-11ed-ba43-dac502259ad0.png

在預(yù)訓(xùn)練階段,ERNIE增加了一個(gè)entity denoising的任務(wù):mask掉或者隨機(jī)打亂某些word和entity之間的對(duì)齊關(guān)系,讓模型去預(yù)測(cè)。這種預(yù)訓(xùn)練任務(wù)起到了將實(shí)體知識(shí)融入到語(yǔ)言模型中的作用。

KEAR: Augmenting Self-Attention with External Attention(IJCAI 2022)

為了讓Transformer存儲(chǔ)更多的知識(shí)來(lái)提升下游任務(wù)效果,一般都會(huì)采用更大的模型尺寸、更多的訓(xùn)練數(shù)據(jù)。而KEAR提出引入外部知識(shí)的方法,這樣即使在中等尺寸的Transformer上也能由于這些外部知識(shí)增益帶來(lái)顯著效果提升。

本文主要關(guān)注QA任務(wù),給定一個(gè)問(wèn)題和一組答案,從中選擇正確答案。模型的結(jié)構(gòu)比較簡(jiǎn)單,將輸入的文本,以及從各種外部知識(shí)庫(kù)中檢索到和原始輸入相關(guān)的知識(shí)信息,都以文本的形式拼接到一起,輸入到Transformer中。

外部知識(shí)主要來(lái)源于三個(gè)渠道,第一個(gè)渠道是知識(shí)圖譜,從問(wèn)題和答案中提取entity,然后從ConcepNet中提取包含對(duì)應(yīng)entity的三元組;第二個(gè)渠道是從字典中檢索相應(yīng)實(shí)體的描述性定義,來(lái)彌補(bǔ)模型對(duì)于低頻詞的embedding可能學(xué)的不好的情況;第三個(gè)渠道是從訓(xùn)練數(shù)據(jù)中檢索和當(dāng)前輸入相關(guān)的信息作為補(bǔ)充,緩解模型由于對(duì)某些訓(xùn)練數(shù)據(jù)中的信息記憶不全導(dǎo)致的信息缺失。

ef101f00-026d-11ed-ba43-dac502259ad0.png

Entities as Experts: Sparse Memory Access with Entity Supervision(2020,EaE)

這篇文章在Transformer模型中引入了一個(gè)Entity Memory Layer組件,用來(lái)從已經(jīng)訓(xùn)練好的entity embedding memory中引入和輸入相關(guān)的外部知識(shí)。Entity Memory Layer模塊可以非常靈活的嵌套在Transformer等序列模型中。

具體做法為,首先要有一個(gè)已經(jīng)訓(xùn)練好的entity embedding存儲(chǔ)起來(lái)。在Transformer的一層輸出結(jié)果后,對(duì)于輸入文本中的每個(gè)entity mention,使用這個(gè)entity span的起始位置和終止位置的embedding拼接+全連接得到一個(gè)虛擬的entity embedding。利用這個(gè)虛擬的entity embedding去entity embedding memory中,利用內(nèi)積檢索出最相關(guān)的top K個(gè)實(shí)體的embedding,最后加權(quán)融合,得到這個(gè)entity對(duì)應(yīng)的實(shí)體表示,公式如下。這個(gè)表示會(huì)和Transformer上層輸入融合,作為下一層的輸入。

ef54f6c0-026d-11ed-ba43-dac502259ad0.png

預(yù)訓(xùn)練任務(wù)除了MLM外,還包括Mention Detection和Entity Linking兩個(gè)優(yōu)化任務(wù)。其中,Mention Detection用來(lái)預(yù)測(cè)每個(gè)實(shí)體的start和end,采用BIO classification的方式;而Entity Limking任務(wù)主要為了拉近Transformer生成的虛擬entity embedding和其對(duì)應(yīng)的entity embedding memory的距離。

ef84dec6-026d-11ed-ba43-dac502259ad0.png

FILM: Adaptable and Interpretable Neural Memory Over Symbolic Knowledge(NAACL 2021)

FILM在上一篇文章中的entity embedding memory基礎(chǔ)上,引入了Fact Memory模塊,entity embedding layer部分的實(shí)現(xiàn)和EaE中相同。

Fact Memory模塊和Entity Memory使用的是相同的embedding。Fact Memory模塊由Keys和Values兩個(gè)部分組成,Keys對(duì)應(yīng)的是知識(shí)圖譜中的subject和relation,而Values是同一個(gè)subject和relation下的所有object的集合。使用subject和relation的表示拼接轉(zhuǎn)換得到每個(gè)Keys的embedding表示。當(dāng)需要預(yù)測(cè)輸入文本被mask部分的答案時(shí),使用Transformer在mask位置生成的embedding作為query,在Fact Memory中和各個(gè)Keys的embedding做內(nèi)積,檢索相關(guān)的object。這些檢索出的object信息的embedding會(huì)和被mask部分的embedding融合,用于進(jìn)行答案的預(yù)測(cè)。

下圖是一個(gè)例子,被mask部分的embedding包含了句子中的關(guān)鍵信息,利用該embedding在fact memory中可以實(shí)現(xiàn)相關(guān)信息的檢索,對(duì)于QA有比較大的幫助。

efd36ed8-026d-11ed-ba43-dac502259ad0.png

K-BERT: Enabling Language Representation with Knowledge Graph(2019)

K-BERT首先將輸入文本的實(shí)體識(shí)別出來(lái),然后去知識(shí)圖譜中搜索和該實(shí)體相關(guān)的子圖,用這個(gè)子圖插入到輸入句子的對(duì)應(yīng)位置,形成一個(gè)句子樹(shù)。比如下面的圖中,Tim Cook從知識(shí)圖譜檢索出是蘋(píng)果CEO,就將對(duì)應(yīng)文本插入到Tim Cook后面的位置。

f003fdd2-026d-11ed-ba43-dac502259ad0.png

一個(gè)核心問(wèn)題在于,新引入的知識(shí)圖譜文本會(huì)影響原來(lái)輸入句子的語(yǔ)義。另外,文中采用的是將知識(shí)圖譜引入的文本直接插入到對(duì)應(yīng)實(shí)體后面,其他文本位置對(duì)應(yīng)后移,如何設(shè)置position embedding也是個(gè)問(wèn)題。如果直接按照順序設(shè)定position embedding,會(huì)讓原本距離比較近的單詞之間的position embedding變遠(yuǎn),也會(huì)影響原始語(yǔ)義。為了解決這個(gè)問(wèn)題,插入的知識(shí)圖譜文本不會(huì)影響原來(lái)句子各個(gè)單詞的posistion編號(hào)。同時(shí)引入了Visible Matrix,讓原始輸入中和引入的知識(shí)信息不相關(guān)的文本在計(jì)算attention時(shí)不可見(jiàn)。通過(guò)這種方式,引入的知識(shí)信息只會(huì)直接影響與其相關(guān)的實(shí)體的表示生成,不會(huì)直接影響原始句子中其他文本的表示生成。引入的知識(shí)通過(guò)影響對(duì)應(yīng)實(shí)體的表示生成,間接影響其他文本的表示生成過(guò)程。

2

Retrieval based methodsDense Passage Retrieval for Open-Domain Question Answering(2020)

這篇文章采用的是一種最基礎(chǔ)的基于檢索的QA解決方法。離線訓(xùn)練一個(gè)passage encoder和一個(gè)question encoder,目標(biāo)是讓question和包含其答案的passage的表示的內(nèi)積最大。訓(xùn)練過(guò)程中的負(fù)樣本構(gòu)造采用了隨機(jī)采樣、BM25和question高相關(guān)性但不包含答案的passage、訓(xùn)練樣本中包含答案但不包含當(dāng)前question答案的passage三種方法。在在線使用時(shí),通過(guò)計(jì)算question和passage表示內(nèi)積的方式,檢索出高相關(guān)性的passage解析出問(wèn)題答案。

REALM: Retrieval-Augmented Language Model Pre-Training(2020)

REALM在預(yù)訓(xùn)練語(yǔ)言模型中引入了外部知識(shí)檢索模塊,讓模型在進(jìn)行預(yù)測(cè)時(shí),不僅能夠根據(jù)自身參數(shù)保存的信息,也能根據(jù)豐富的外部信息給出答案。整個(gè)預(yù)測(cè)過(guò)程包括兩個(gè)部分:檢索階段和預(yù)測(cè)階段。檢索階段根據(jù)輸入句子從外部知識(shí)中檢索相關(guān)的文檔;預(yù)測(cè)階段根據(jù)輸入句子以及檢索到的信息進(jìn)行最終結(jié)果的預(yù)測(cè)。

在檢索階段,跟上一篇文章類似,使用預(yù)訓(xùn)練的兩個(gè)BERT的表示計(jì)算內(nèi)積求得輸入和各個(gè)文檔的相關(guān)性,并進(jìn)行高相關(guān)文檔的檢索。檢索到的文檔和原始輸入拼接到一起,輸入到BERT模型中進(jìn)行結(jié)果預(yù)測(cè)。

f01f3ca0-026d-11ed-ba43-dac502259ad0.png

RETRO: Improving language models by retrieving from trillions of tokens(2022)

RETRO相比REALM,采用的是chunks維度的檢索。首先構(gòu)造一個(gè)數(shù)據(jù)庫(kù),存儲(chǔ)文本chunks以及它們的embedding,embedding是由一個(gè)預(yù)訓(xùn)練BERT產(chǎn)出的。接下來(lái)在訓(xùn)練語(yǔ)言模型時(shí),對(duì)于每個(gè)輸入文本,將其切分成多個(gè)chunk,每個(gè)chunk利用向量檢索從數(shù)據(jù)庫(kù)中檢索出k個(gè)最近鄰chunks。這些被檢索出來(lái)的相關(guān)chunks會(huì)利用attention和原始輸入進(jìn)行融合,增強(qiáng)原始輸入信息。原始輸入的每個(gè)chunk都和該chunk檢索出的chunks以及其鄰居檢索出的chunks進(jìn)行attention。

f0af4962-026d-11ed-ba43-dac502259ad0.png

WebGPT: Browser-assisted question-answering with human feedback(2022)

WebGPT實(shí)現(xiàn)了利用GPT模型使用搜索引擎檢索答案。人們?cè)跒g覽器中搜索的操作可以表述成例如下面的這些文本。預(yù)先定義一些下表中的command,訓(xùn)練GPT模型讓它根據(jù)已經(jīng)進(jìn)行的搜索操作,生成下一個(gè)command。這個(gè)過(guò)程一直執(zhí)行到某個(gè)終止條件位置(例如生成end command、執(zhí)行次數(shù)超過(guò)一定長(zhǎng)度)。某些command代表著采用這些文檔作為reference。在執(zhí)行完所有command后,根據(jù)收集到的reference以及問(wèn)題,生成最終的答案。比如下圖b中就是已經(jīng)執(zhí)行的command以及問(wèn)題等信息,這些信息組成了當(dāng)前搜索的上下文,以文本形式輸入GPT中,讓模型生成下一個(gè)command。

f0ee15d4-026d-11ed-ba43-dac502259ad0.png

f1577b50-026d-11ed-ba43-dac502259ad0.png

Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data(2022)

這篇文章通過(guò)檢索+拼接的方法擴(kuò)充原始輸入文本的信息,提升多項(xiàng)任務(wù)上的效果。整個(gè)檢索過(guò)程在訓(xùn)練數(shù)據(jù)中進(jìn)行,將訓(xùn)練數(shù)據(jù)構(gòu)造成key-value對(duì)。對(duì)于輸入樣本,從訓(xùn)練數(shù)據(jù)中檢索出高相關(guān)性的樣本,作為知識(shí)信息拼接到原始輸入中。不同任務(wù)會(huì)采用不同的檢索對(duì)象以及拼接方法,如下圖。

f197d2d6-026d-11ed-ba43-dac502259ad0.png

3

總結(jié)知識(shí)增強(qiáng)方法是解決自然語(yǔ)言理解的核心方法,重點(diǎn)在于研究從哪獲取知識(shí)、如何獲取知識(shí)以及如何融合知識(shí)。使用知識(shí)增強(qiáng)的方法可以幫助模型更直接獲取預(yù)測(cè)需要用到的外部知識(shí),也能緩解需要越來(lái)越大的預(yù)訓(xùn)練模型提升下游任務(wù)效果的問(wèn)題。知識(shí)增強(qiáng)+預(yù)訓(xùn)練語(yǔ)言模型起到互補(bǔ)的作用,知識(shí)增強(qiáng)方法可以給模型提供預(yù)訓(xùn)練階段沒(méi)見(jiàn)過(guò)或者忘記的信息,提升預(yù)測(cè)效果。

原文標(biāo)題:ACL 2022 Tutorial解析——知識(shí)增強(qiáng)自然語(yǔ)言理解

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3495

    瀏覽量

    50040
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22498
  • 知識(shí)圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7934

原文標(biāo)題:ACL 2022 Tutorial解析——知識(shí)增強(qiáng)自然語(yǔ)言理解

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【HarmonyOS 5】App Linking 應(yīng)用間跳轉(zhuǎn)詳解

    ? 目錄 什么是 App Linking 使用場(chǎng)景 工作原理 如何開(kāi)發(fā) 1.開(kāi)通 App Linking 2.確定域名 3.服務(wù)端部署 applinking.json 文件 4.AGC綁定域名
    發(fā)表于 05-16 16:24

    焊接技術(shù)流程優(yōu)化方法

    焊接是現(xiàn)代制造業(yè)中不可或缺的一部分,廣泛應(yīng)用于建筑、汽車、航空、船舶等領(lǐng)域。隨著科技的發(fā)展,對(duì)焊接技術(shù)的要求越來(lái)越高,優(yōu)化焊接流程顯得尤為重要。 1. 焊接工藝的優(yōu)化 1.1 選擇合適的焊接方法
    的頭像 發(fā)表于 01-19 13:52 ?1070次閱讀

    氦質(zhì)譜檢漏方法簡(jiǎn)介及方法選擇

    氦質(zhì)譜檢漏儀的檢漏方法,主要包括負(fù)壓法(真空法、噴氦法)、正壓法(吸氣法、吸槍法)、背壓法(壓氦法),以及根據(jù)實(shí)際待檢產(chǎn)品的不同,衍生出很多氦檢漏方法
    的頭像 發(fā)表于 01-03 16:40 ?863次閱讀
    氦質(zhì)譜檢漏<b class='flag-5'>方法</b>簡(jiǎn)介及<b class='flag-5'>方法</b>選擇

    焊接方法對(duì)焊接質(zhì)量的影響

    焊接方法對(duì)焊接質(zhì)量的影響是顯著的,不同的焊接方法會(huì)直接影響焊縫的質(zhì)量、強(qiáng)度、密封性以及焊接效率。以下是對(duì)焊接方法如何影響焊接質(zhì)量的分析: 一、焊縫質(zhì)量 焊縫外觀 不同焊接方法產(chǎn)生的焊縫
    的頭像 發(fā)表于 11-01 09:55 ?862次閱讀

    減速電機(jī)的調(diào)速方法是什么?如何調(diào)?

    減速電機(jī)是一種將電能轉(zhuǎn)換為機(jī)械能的設(shè)備,通過(guò)調(diào)整電機(jī)的轉(zhuǎn)速來(lái)實(shí)現(xiàn)對(duì)負(fù)載的控制。調(diào)速方法主要有以下幾種: 變極調(diào)速法:通過(guò)改變電機(jī)的極數(shù)來(lái)調(diào)整轉(zhuǎn)速。這種方法適用于多極電機(jī),通過(guò)改變電機(jī)的極數(shù),可以改變
    的頭像 發(fā)表于 10-24 10:22 ?1837次閱讀

    C語(yǔ)言生成可執(zhí)行二進(jìn)制文件的具體過(guò)程

    C語(yǔ)言源碼到生成可執(zhí)行文件的過(guò)程通常包括預(yù)處理(Preprocessing)、編譯(Compilation)、匯編(Assembly)、鏈接(Linking)等多個(gè)步驟,每個(gè)步驟都有其特定的任務(wù)
    的頭像 發(fā)表于 10-21 14:30 ?1464次閱讀
    C語(yǔ)言生成可執(zhí)行二進(jìn)制文件的具體過(guò)程

    環(huán)路測(cè)試的接線方法及原因

    環(huán)路測(cè)試是一種用于評(píng)估電子系統(tǒng)(如開(kāi)關(guān)電源)穩(wěn)定性和性能的重要測(cè)試方法。在環(huán)路測(cè)試中,正確的接線方法是確保測(cè)試準(zhǔn)確性和可靠性的關(guān)鍵。 一、環(huán)路測(cè)試的基本概念 環(huán)路測(cè)試是通過(guò)給被測(cè)系統(tǒng)(如開(kāi)關(guān)電源
    的頭像 發(fā)表于 10-06 16:49 ?2421次閱讀
    環(huán)路測(cè)試的接線<b class='flag-5'>方法</b>及原因

    雷達(dá)的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達(dá)的基本分類方法.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:09 ?6次下載

    如何將布局受限的從屬entity應(yīng)用到另一個(gè)項(xiàng)目

    為了方便大家理解,以下將準(zhǔn)備兩個(gè)項(xiàng)目,分別為 [項(xiàng)目A] 和 [項(xiàng)目B]。我們需要在 [項(xiàng)目B] 中實(shí)現(xiàn) [項(xiàng)目A] 中使用的低級(jí)別 entity。在這種情況下,器件型號(hào)和 Quartus Prime Pro Edition 環(huán)境如下表 (表1) 所示:
    的頭像 發(fā)表于 08-22 16:42 ?953次閱讀
    如何將布局受限的從屬<b class='flag-5'>entity</b>應(yīng)用到另一個(gè)項(xiàng)目

    DC/DC模擬的基本使用方法和特性確認(rèn)方法

    本篇介紹了DC/DC模擬的基本使用方法及確認(rèn)基本特性的方法
    的頭像 發(fā)表于 08-20 17:08 ?1259次閱讀
    DC/DC模擬的基本使用<b class='flag-5'>方法</b>和特性確認(rèn)<b class='flag-5'>方法</b>

    常見(jiàn)的測(cè)量電池內(nèi)阻的方法

    測(cè)量電池內(nèi)阻的方法多種多樣,每種方法都有其獨(dú)特的原理和適用范圍。以下是一些常見(jiàn)的測(cè)量電池內(nèi)阻的方法
    的頭像 發(fā)表于 08-13 18:14 ?6044次閱讀

    電容器的放電方法

    電容器的放電方法是電子工程中一個(gè)重要的操作環(huán)節(jié),對(duì)于保障設(shè)備安全、人員安全具有重要意義。以下是關(guān)于電容器放電方法的詳細(xì)闡述。
    的頭像 發(fā)表于 07-27 16:18 ?6666次閱讀

    聚徽觸控-拼接屏的安裝方法和維護(hù)方法是什么

    拼接屏的安裝方法和維護(hù)方法如下:
    的頭像 發(fā)表于 07-18 09:34 ?773次閱讀

    nlp自然語(yǔ)言處理的主要任務(wù)及技術(shù)方法

    (Tokenization)、詞性標(biāo)注(Part-of-Speech Tagging)和命名實(shí)體識(shí)別(Named Entity Recognition)等子任務(wù)。 1.1.1 分詞(T
    的頭像 發(fā)表于 07-09 10:26 ?1989次閱讀

    ESP32S2 ADF的例子編譯后鏈接失敗了是怎么回事?

    其中 ESP-IDF是 v4.4-dev-1594-g1d7068e4b ESP-ADF 是 v2.2-119-g18bd5d5 輸出打印信息 [1136/1138] Linking CXX
    發(fā)表于 06-28 07:52
    主站蜘蛛池模板: 小泽玛利亚在线观看123 | 手机在线黄色网址 | 欧美黄色免费网站 | 五月婷婷丁香久久 | 99久久精品免费看国产免费 | 日本一级黄色毛片 | 久久久成人影院 | 凸输偷窥xxxx自由视频 | 多男一女一级淫片免费播放口 | 四大名著成人高h肉版 | 色在线国产 | 国产成人无精品久久久久国语 | 久久免费视频2 | 一本到中文字幕高清不卡在线 | 717影院理论午夜伦不卡久久 | 天天射天天操天天干 | 国产精品特黄毛片 | 色婷婷在线视频观看 | 亚洲一区二区三区中文字幕 | 久久综合操 | 狠狠se | 91久久青草精品38国产 | 黄视频免费观看 | 亚洲一区二区在线视频 | 亚洲欧美精品 | 亚洲一区二区三区麻豆 | 色婷婷综合和线在线 | 天天操天天干天天做 | 伊人久久大香线蕉综合7 | 视色4setv.com| 麒麟色欧美影院在线播放 | 2018天堂视频免费观看 | 亚洲综合一 | 黄频网站免费大全在线观看 | 成人伊人亚洲人综合网站222 | 久久作爱视频 | 免费一级特黄特色大片在线 | 亚洲深夜| 久久精品女人天堂 | 欧美另类丰满69xxxxx | 国产欧美精品一区二区色综合 |