在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種通過引入硬注意力機制來引導(dǎo)學(xué)習(xí)視覺回答任務(wù)的研究

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-10-04 09:23 ? 次閱讀

【導(dǎo)讀】軟注意力機制已在計算機視覺領(lǐng)域取得了廣泛的應(yīng)用和成功。但是我們發(fā)現(xiàn)硬注意力機制在計算機視覺任務(wù)中的研究還相對空白。而硬注意力機制能夠從輸入信息中選擇重要的特征,因此它被視為是一種比軟注意力機制更高效的方法。本次,將為大家介紹一種通過引入硬注意力機制來引導(dǎo)學(xué)習(xí)視覺回答任務(wù)的研究。此外結(jié)合L2 正則化篩選特征向量,可以高效地促進篩選的過程并取得更好的整體表現(xiàn),而無需專門的學(xué)習(xí)過程。

摘要

生物感知中的注意機制主要是用于為復(fù)雜處理過程選擇感知信息子集,以對所有感官輸入執(zhí)行禁止操作。軟注意力機制 (soft attention mechanism) 通過選擇性地忽略部分信息來對其余信息進行重加權(quán)聚合計算,已在計算機視覺領(lǐng)域取得了廣泛的應(yīng)用和成功。然而,我們對于硬注意力機制 (hard attention mechanism) 的探索卻相對較少,在這里,我們引入一種新的硬注意力方法,它能夠在最近發(fā)布的一些視覺問答數(shù)據(jù)庫中取得有競爭力的表現(xiàn),甚至在一些數(shù)據(jù)集中的性能超過了軟注意力機制。雖然硬注意力機制通常被認為是一種不可微分的方法,我們發(fā)現(xiàn)特征量級與語義相關(guān)性是相關(guān)的,并能為我們提供有用的信號來篩選注意力機制選擇標準。由于硬注意力機制能夠從輸入信息中選擇重要的特征,因此它被視為是一種比軟注意力機制更高效的方法,特別地對于最近研究中使用非局部逐對操作 (non-local pairwise) 而言,其計算和內(nèi)存成本的消耗是巨大的。

簡介

視覺注意力有助于促進人類在復(fù)雜視覺推理多方面的能力。例如,對于需要在人群中識別出狗的任務(wù),視覺系統(tǒng)能夠自適應(yīng)地分配更多的計算處理資源,對狗及其潛在的目標或場景進行視覺信息處理。當(dāng)觀察者正觀察場景中的其他目標,而未發(fā)覺到一些引人注目的實體時,這種感知效果將變得非常顯著。盡管注意力機制并不是計算機視覺領(lǐng)域中的一項變革性的技術(shù),但由于許多計算機視覺任務(wù),如檢測,分割和分類,并沒有涉及復(fù)雜的視覺推理過程,因此這種注意力機制對計算機視覺任務(wù)而言還是有幫助的。

視覺問答任務(wù)是一項需要復(fù)雜推理過程的視覺任務(wù),在近些年得到廣泛的關(guān)注并取得了長足的進步。成功的視覺問答框架必須要能夠處理多個對象及其之間復(fù)雜的關(guān)系,同時還要能夠集成豐富的目標背景知識。我們意識到計算機視覺中的軟注意力機制主要是通過加權(quán)聚合部分重要信息來提高視覺處理的準確性,但對于計算機視覺中的硬注意力機制的研究相對空白。

在這里,我們探索一種簡單的硬注意力機制,來引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)的特征表征:特征學(xué)習(xí)通常需要為硬注意力的選擇提供一種簡單的訪問信號。特別地,用 L2 正則化篩選這些特征向量已被驗證是一種有助于硬注意力機制的方法,它能夠高效地促進篩選的過程并取得更好的整體表現(xiàn),而無需專門的學(xué)習(xí)過程。下圖1展示了這種方法的結(jié)果。注意力信號直接源自于標準的監(jiān)督任務(wù)損失函數(shù),而無需任何明確的監(jiān)督信號來激活正則化,也無需其他潛在的措施。

圖1 基于給定的自然圖像和文本問題輸入,我們的視覺問答架構(gòu)得到的輸出結(jié)果圖。這里,我們使用了一種硬注意機制,只對那些重要的視覺特征進行選擇并處理。基于我們模型結(jié)構(gòu),正則化后視覺特征的相關(guān)性以及那些具有高度相關(guān)性并包含重要語義內(nèi)容的特征向量的前提,生成我們的注意力圖像。

此外,通過對特征向量的 L2 正則化處理來選擇重要性特征,我們的視覺問答框架進一步采用硬注意力機制進行增強。我們將最初的版本成為硬注意力網(wǎng)絡(luò) HAN (Hard Attention Network),用于通過頂層正則化項來選擇固定數(shù)量的特征向量。第二個版本我們稱之為自適應(yīng)的硬注意力網(wǎng)絡(luò) AdaHAN (Hard Hard Attention Network),這是基于輸入來決定特征向量的可變數(shù)量的一種網(wǎng)絡(luò)結(jié)構(gòu)。我們在大量的數(shù)據(jù)集上評估我們的方法,實驗結(jié)果表明我們的算法能夠在多個視覺問答數(shù)據(jù)及上實現(xiàn)與軟注意力機制相當(dāng)?shù)男阅?。此外,我們的方法還能產(chǎn)生可解釋的硬注意力掩模,其中所選的圖像特征區(qū)域通常包含一些相應(yīng)的重要語義信息,如一些連貫的對象。相比于非局部成對模型,我們的方法也能取得相當(dāng)出色的表現(xiàn)。

方法

下圖2展示了我們提出的用于學(xué)習(xí)從圖像和問題映射到答案的模型結(jié)構(gòu)。我們用卷積神經(jīng)網(wǎng)絡(luò) (CNN) 對圖像進行編碼(在這里采用的是預(yù)訓(xùn)練的 ResNet-101 模型,或是從頭開始訓(xùn)練小型的 CNN 模型),并用 LSTM 將問題編碼為一個固定長度的矢量表征。通過將答案復(fù)制到 CNN 模型中每個空間位置并將其與視覺特征相連接,我們計算得到組合表征。經(jīng)過幾層組合處理后,我們在空間位置上引入注意力機制,這與先前研究中引入軟注意力機制的過程是一致的。最后,我們將特征聚合,并使用池化和 (sum-pooling) 或關(guān)系模塊 (relational modules),通過計算答案類別的標準邏輯回歸損失來端到端地訓(xùn)練整個網(wǎng)絡(luò)。

圖2 我們在模型中引入硬注意力機制來代替軟注意力機制,并遵循標準視覺問答框架的其他結(jié)構(gòu)。圖像和問題都被編碼成各自的矢量表征。隨后,空間視覺特征的編碼被進一步表示,而問題嵌入相應(yīng)地通過傳播和連接 (或添加) 以形成多模式輸入表征。我們的注意力機制能夠有選擇性地選擇用于下一次聚合和處理多模式向量的應(yīng)答模塊。

▌1.硬注意力機制

我們引入了一種新的硬注意力機制,它在空間位置上產(chǎn)生二進制掩碼,并確定用于下一步處理的特征選擇。我們將我們的方法稱為硬注意力網(wǎng)絡(luò) (HAN),其核心在于對每個空間位置使用 L2 正則化激活以生成該位置相關(guān)性。L2 范數(shù)和相關(guān)性之間的關(guān)系是 CNN 訓(xùn)練特征的一種新屬性,這不需要額外的約束或目標。我們的結(jié)構(gòu)也只是對這種現(xiàn)象進行引導(dǎo)而沒有明確地訓(xùn)練該網(wǎng)絡(luò)。

因此,與軟注意力機制相比,我們的方法不需要額外的參數(shù)學(xué)習(xí)。HAN 只需要一個額外的、可解釋的超參數(shù):即輸入單元所使用的稀疏,也是用于權(quán)衡訓(xùn)練速度和準確性的參數(shù)。

▌2.特征聚合

池化和在引入注意力機制后,減少特征矢量的一種簡單方法是將其進行池化和操作以生成長度固定的矢量。在注意力權(quán)重向量為 w 的軟注意力條件下,我們很容易計算得到向量的池化和。在硬注意力條件下,基于選擇的特征,我們也可以由此類比地計算。

非局部逐對操作 為進一步改善池化和的性能,我們探索一種與通過非局部成對計算來演繹推理相類似的方法。其數(shù)學(xué)描述如下:

在這里,softmax 函數(shù)作用于所有的 i, j 位置。我們的方法能夠成對地計算非局部嵌入之間的關(guān)系,獨立于空間或時間的近似度。硬注意力機制能夠幫助我們減少所要考慮的設(shè)置,因此我們的目標在于測試通過硬注意力選擇的特征是否能與此操作相兼容。

實驗

為了展示硬注意力機制對視覺問答任務(wù)的重要性,我們首先在 VQA-CP v2 數(shù)據(jù)集上,將 HAN 與現(xiàn)有的軟注意力網(wǎng)絡(luò) SAN 進行比較分析,并通過卷積映射直接控制空間單元出現(xiàn)的數(shù)量來探索不同程度的硬注意力的影響。隨后,我們評估 AdaHAN 模型并研究網(wǎng)絡(luò)深度和預(yù)訓(xùn)練策略的影響,這是一種能夠自適應(yīng)地選擇單元出現(xiàn)數(shù)量的一種模型。最后,我們展示了定性的實驗結(jié)果,并提供了在 CLEVR 數(shù)據(jù)集上的結(jié)果,以表明我們方法的通用性。

▌1.實驗細節(jié)

我們的模型都使用相同的 LSTM 模型用于問題嵌入,其大小為512,并采用在ImageNet 數(shù)據(jù)集上預(yù)訓(xùn)練的 ResNet-101 模型的最后一個卷積層 (能夠產(chǎn)生10×10空間表征,每個具有2048個維度),用于圖像嵌入。此外,我們還使用3層大小分別為1024、2048、1000的 MLP 結(jié)構(gòu),作為一個分類模型。我們使用 ADAM 進行優(yōu)化,采用分布式設(shè)置,以128每批次大小來計算梯度值,并根據(jù)經(jīng)驗在Visual QA數(shù)據(jù)集上選擇默認的超參數(shù)。

▌2.數(shù)據(jù)集

VQA-CP v2 數(shù)據(jù)集的結(jié)果:VQA-CP v2 數(shù)據(jù)集包含 121K (98K) 張圖像數(shù)據(jù),438K (220K) 條問題數(shù)據(jù)以及 4.4M (2.2M) 答案數(shù)據(jù)。該數(shù)據(jù)集提供了標準的訓(xùn)練測試過程,并將問題分解為不同的類型:如答案為肯定/否定類型,答案是數(shù)字類型,以及其他類型等,這有助于我們用每種問題類型準確性來評估網(wǎng)絡(luò)架構(gòu)的性能。

CLEVR:CLEVR 是一個合成數(shù)據(jù)庫,由 100K 張 3D 渲染圖像組成,如球體、圓柱體等。雖然視覺任務(wù)相對簡單,但解決這個數(shù)據(jù)集也需要推理目標間的復(fù)雜關(guān)系。

▌3.結(jié)果分析

硬注意力機制的影響

我們考慮最基礎(chǔ)的硬注意力結(jié)構(gòu):采用硬注意力機制,并對每個出現(xiàn)單元進行池化和操作,最后連接一個小型的 MLP 結(jié)構(gòu)。下表1展示了我們的實驗結(jié)果。可以看到,引入硬注意力機制不僅不會丟失特征的重要信息,還能在較少出現(xiàn)單元的情況下,取得相當(dāng)?shù)男阅芙Y(jié)果,這表明了這種機制是圖像的重要部分。此外,在表1下面我們還與軟注意力機制進行了對比,可以發(fā)現(xiàn)軟注意力機制的表現(xiàn)并不優(yōu)于我們的方法。

表1 不同出現(xiàn)單元數(shù)量和聚合操作的性能比較。我們考慮簡單的和操作和非局部成對計算作為特征聚合的工具。

自適應(yīng)硬注意力機制的結(jié)果

下表2展示了自適應(yīng)硬注意力機制的實驗結(jié)果。我們可以看到,自適應(yīng)機制使用非常少的單元:進行池化和計算時,只使用100個單元中的25.66個,而進行非局部成對聚合時,則只有32.63個單元被使用。這表明即便非常簡單的自適應(yīng)方法,也能給圖像和問題的解決可以帶來計算和性能方面的提升,這也說明更復(fù)雜的方法將是未來工作的重要方向。

表2 不同自適應(yīng)硬注意力技術(shù)、單元出現(xiàn)的平均數(shù)量和聚合操作的性能對比。我們考慮一種簡單的和操作和非局部成對聚合操作。

此外,下表3展示了移除兩層結(jié)構(gòu)后自適應(yīng)硬注意力機制的性能表現(xiàn)。可以看到,移除這些層后,模型的表現(xiàn)下降了約1%,這表明了決定單元出現(xiàn)與否需要不同的信息,這不同于 ResNet 模型的分類微調(diào)設(shè)計,同時也說明了深度對于自適應(yīng)機制的影響。

表3 在 VQA-CP v2 數(shù)據(jù)集上不同單元出現(xiàn)數(shù)量的性能比較。其中第二列表示輸入單元出現(xiàn)的百分比,而第三列代表 MLP 結(jié)構(gòu)的層數(shù)。

定性結(jié)果及 CLEVR 數(shù)據(jù)集結(jié)果

下圖3、圖4展示了我們方法的定性實驗結(jié)果。圖3展示了采用不同硬注意力機制(HAN、AdaHAN)、不同聚合操作 (和操作、逐對操作) 的實驗結(jié)果。而圖4展示了采用最佳的模型設(shè)置:自適應(yīng)硬注意力機制加上非局部逐對聚合操作 (AdaHAN+pairwise),在 VQA-CP 數(shù)據(jù)集上的實驗結(jié)果。

圖3 不同硬注意力機制和不同聚合方法變體的定性結(jié)果

圖4 AdaHAN+pairwise 的定性結(jié)果

此外,我們還進一步在 CLEVR 數(shù)據(jù)集上驗證我們方法的通用性,其他的設(shè)置與 VQA-CP 數(shù)據(jù)集上相類似。下圖5展示了兩種方法的實驗結(jié)果。

圖5 在 CLEVR 數(shù)據(jù)集上相同超參數(shù)設(shè)置,不同方法的驗證精度結(jié)果。(a) HAN+RN (0.25的輸入單元) 和 標準的 RN 結(jié)構(gòu) (全輸入單元),訓(xùn)練12個小時來測量方法的有效性。(b) 我們的硬注意力方法。

結(jié)論

我們已經(jīng)引入了一種新的硬注意力方法用于計算機視覺任務(wù),它能夠選擇用于下一步處理的特征向量子集。我們探索了兩種模型:一個選擇具有預(yù)定義向量數(shù)量的 HAN 模型,另一個自適應(yīng)地選擇子集大小作為輸入的 AdaHAN。通過特征向量數(shù)量與相關(guān)信息的相關(guān)性,我們的注意力機制能夠解決文獻中現(xiàn)有方法存在的梯度問題。經(jīng)過大量的實驗評估,結(jié)果表明了在具有挑戰(zhàn)性的 Visual QA 數(shù)據(jù)集上,我們的 HAN 和 AdaHAN 模型能夠取得有競爭力的性能表現(xiàn),并在某些時候取得相當(dāng)甚至超過軟注意力機制的表現(xiàn),同時還能提供額外的計算效率優(yōu)勢。最后,我們還提供了可解釋性表示,即對所選特征的空間位置中相應(yīng)貢獻最大、最顯著的部分進行了可視化。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4782

    瀏覽量

    101230
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1089

    瀏覽量

    40590
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3852

    瀏覽量

    64725

原文標題:如何通過引入硬注意力機制來學(xué)習(xí)視覺問答任務(wù)?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    DeepMind為視覺問題回答提出了一種新的注意力機制

    然而,在基于梯度的學(xué)習(xí)框架(如深度學(xué)習(xí))中存在個關(guān)鍵的缺點:因為選擇要處理的信息的過程是離散化的,因此也就是不可微分的,所以梯度不能反向傳播到選擇機制
    的頭像 發(fā)表于 08-10 08:44 ?6264次閱讀

    深度分析NLP中的注意力機制

    注意力機制越發(fā)頻繁的出現(xiàn)在文獻中,因此對注意力機制學(xué)習(xí)、掌握與應(yīng)用顯得十分重要。本文便對注意力
    的頭像 發(fā)表于 02-17 09:18 ?3915次閱讀

    注意力機制的誕生、方法及幾種常見模型

    簡而言之,深度學(xué)習(xí)中的注意力機制可以被廣義地定義為個描述重要性的權(quán)重向量:通過這個權(quán)重向量為了預(yù)測或者推斷
    的頭像 發(fā)表于 03-12 09:49 ?4.2w次閱讀

    注意力機制或?qū)⑹俏磥頇C器學(xué)習(xí)的核心要素

    目前注意力機制已是深度學(xué)習(xí)里的大殺器,無論是圖像處理、語音識別還是自然語言處理的各種不同類型的任務(wù)中,都很容易遇到注意力模型的身影。
    發(fā)表于 05-07 09:37 ?1339次閱讀

    基于注意力機制的深度學(xué)習(xí)模型AT-DPCNN

    情感分析是自然語言處理領(lǐng)域的個重要分支,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在文本情感分析方面取得了較好的效果,但其未充分提取文本信息中的關(guān)鍵情感信息。為此,建立一種基于注意力機制的深度
    發(fā)表于 03-17 09:53 ?12次下載
    基于<b class='flag-5'>注意力</b><b class='flag-5'>機制</b>的深度<b class='flag-5'>學(xué)習(xí)</b>模型AT-DPCNN

    一種注意力增強的自然語言推理模型aESIM

    在自然語言處理任務(wù)中使用注意力機制可準確衡量單詞重要度。為此,提出一種注意力增強的自然語言推理模型aESM。將詞
    發(fā)表于 03-25 11:34 ?9次下載
    <b class='flag-5'>一種</b><b class='flag-5'>注意力</b>增強的自然語言推理模型aESIM

    基于層次注意力機制的多模態(tài)圍堵情感識別模型

    在連續(xù)維度情感識別任務(wù)中,每個模態(tài)內(nèi)部凸顯情感表達的部分并不相同,不同模態(tài)對于情感狀態(tài)的影響程度也有差別。為此,通過學(xué)習(xí)各個模態(tài)特征并采用合理的融合方式,提出一種基于層次注意力
    發(fā)表于 04-01 11:20 ?9次下載
    基于層次<b class='flag-5'>注意力</b><b class='flag-5'>機制</b>的多模態(tài)圍堵情感識別模型

    基于多層CNN和注意力機制的文本摘要模型

    。然而現(xiàn)有的模型在解碼時僅利用編碼器最后層信息,而忽略編碼器其余層的特征。鑒于此,提出一種基于多層循環(huán)神經(jīng)網(wǎng)絡(luò)和層級交互注意力機制的摘要生成模型,
    發(fā)表于 04-07 11:35 ?2次下載
    基于多層CNN和<b class='flag-5'>注意力</b><b class='flag-5'>機制</b>的文本摘要模型

    基于層次注意力機制的多任務(wù)疾病進展模型

    臨床特征,對阿爾茨海默癥進行自動診斷,并預(yù)測潛在的預(yù)后風(fēng)險,進而提岀了饣基于層次注意力機制的多任務(wù)疾病進展模型。該模型將疾病自動診斷任務(wù)
    發(fā)表于 05-07 14:47 ?7次下載

    結(jié)合注意力機制的跨域服裝檢索方法

    針對跨域服裝檢索中服裝商品圖像拍攝嚴格約束光照、背景等條件,而用戶圖像源自復(fù)雜多變的日常生活場景,難以避免背景干擾以及視角、姿態(tài)引起的服裝形變等問題。提出一種結(jié)合注意力機制的跨域服裝檢索方法。利用
    發(fā)表于 05-12 14:19 ?2次下載

    基于注意力機制等的社交網(wǎng)絡(luò)熱度預(yù)測模型

    基于注意力機制等的社交網(wǎng)絡(luò)熱度預(yù)測模型
    發(fā)表于 06-07 15:12 ?14次下載

    計算機視覺中的注意力機制

    計算機視覺中的注意力機制 卷積神經(jīng)網(wǎng)絡(luò)中常用的Attention 參考 注意力機制簡介與分類 注意力
    發(fā)表于 05-22 09:46 ?0次下載
    計算機<b class='flag-5'>視覺</b>中的<b class='flag-5'>注意力</b><b class='flag-5'>機制</b>

    一種新的深度注意力算法

    本文簡介了一種新的深度注意力算法,即深度殘差收縮網(wǎng)絡(luò)(Deep Residual Shrinkage Network)。從功能上講,深度殘差收縮網(wǎng)絡(luò)是一種面向強噪聲或者高度冗余數(shù)據(jù)的特征學(xué)習(xí)
    發(fā)表于 05-24 16:28 ?0次下載
    <b class='flag-5'>一種</b>新的深度<b class='flag-5'>注意力</b>算法

    基于YOLOv5s基礎(chǔ)上實現(xiàn)五視覺注意力模塊的改進

    基礎(chǔ)上實現(xiàn)五視覺注意力模塊的改進,然后訓(xùn)練相同的輪次,橫向比較模型的精度。 YOLOv5添加注意模塊魔改 ?視覺
    的頭像 發(fā)表于 06-02 14:52 ?1646次閱讀
    基于YOLOv5s基礎(chǔ)上實現(xiàn)五<b class='flag-5'>種</b><b class='flag-5'>視覺</b><b class='flag-5'>注意力</b>模塊的改進

    一種基于因果路徑的層次圖卷積注意力網(wǎng)絡(luò)

    機電系統(tǒng)中數(shù)據(jù)驅(qū)動故障檢測模型的性能和可解釋性。引入一種混合因果發(fā)現(xiàn)算法發(fā)現(xiàn)監(jiān)測變量之間的繼承因果關(guān)系。順序連接因果變量的因果路徑用作接收場,使用多尺度卷積提取特征。基于分層
    的頭像 發(fā)表于 11-12 09:52 ?404次閱讀
    <b class='flag-5'>一種</b>基于因果路徑的層次圖卷積<b class='flag-5'>注意力</b>網(wǎng)絡(luò)
    主站蜘蛛池模板: 91啦中文在线观看 | 69国产成人精品午夜福中文 | 国产成人精品亚洲日本在线 | 国语自产拍在线观看7m | 午夜性视频 | 天天摸天天操天天射 | 4hu影院在线观看 | 日本大片免费观看视频 | 国产综合视频在线 | 日本美女视频网站 | 狠狠色综合久久久久尤物 | 8天堂资源在线 | 午夜精品久久久久 | 日本特黄a级高清免费酷网 日本特黄色大片 | 欧美一区二区三区在线观看 | 国产一区在线mmai | 亚洲天堂2013| 五月婷婷精品 | 亚洲综合色视频 | 午夜片 飘香香影院 | 久久这里精品青草免费 | 性瘾高h姚蕊全文免费阅读 性做久久久久 | 亚洲精品影视 | 伊人黄色网 | 三级在线播放 | 免费看美女禁处爆涌视频 | 成人欧美一区二区三区黑人3p | 国产乱码精品一区二区三 | 日本亚洲精品成人 | 美女性视频网站 | 亚洲人成网站色7777 | 四虎成人影院网址 | 一区不卡在线观看 | 国产日日夜夜 | 中文字幕1区 | 婷婷激情四月 | 抽搐一进一出gif免费男男 | 亚洲免费成人在线 | 伊人久久亚洲综合 | 天天干视频网 | 夜夜爱夜夜做 |