在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NeurIPS23|視覺 「讀腦術(shù)」:從大腦活動中重建你眼中的世界

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-12-24 21:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在這篇 NeurIPS23 論文中,來自魯汶大學(xué)、新加坡國立大學(xué)和中科院自動化所的研究者提出了一種視覺 「讀腦術(shù)」,能夠從人類的大腦活動中以高分辨率出解析出人眼觀看到的圖像。

人類的感知不僅由客觀刺激塑造,而且深受過往經(jīng)驗的影響,這些共同促成了大腦中的復(fù)雜活動。在認(rèn)知神經(jīng)科學(xué)領(lǐng)域,解碼大腦活動中的視覺信息成為了一項關(guān)鍵任務(wù)。功能性磁共振成像(fMRI)作為一種高效的非侵入性技術(shù),在恢復(fù)和分析視覺信息,如圖像類別方面發(fā)揮著重要作用。

然而,由于 fMRI 信號的噪聲特性和大腦視覺表征的復(fù)雜性,這一任務(wù)面臨著不小的挑戰(zhàn)。針對這一問題,本文提出了一個雙階段 fMRI 表征學(xué)習(xí)框架,旨在識別并去除大腦活動中的噪聲,并專注于解析對視覺重建至關(guān)重要的神經(jīng)激活模式,成功從大腦活動中重建出高分辨率且語義上準(zhǔn)確的圖像。

wKgZomWINLKALJHdAADF5GvzRlU019.png

論文鏈接:https://arxiv.org/abs/2305.17214

項目鏈接:https://github.com/soinx0629/vis_dec_neurips/

論文中提出的方法基于雙重對比學(xué)習(xí)、跨模態(tài)信息交叉及擴散模型,在相關(guān) fMRI 數(shù)據(jù)集上取得了相對于以往最好模型接近 40% 的評測指標(biāo)提升,在生成圖像的質(zhì)量、可讀性及語義相關(guān)性相對于已有方法均有肉眼可感知的提升。該工作有助于理解人腦的視覺感知機制,有益于推動視覺的腦機接口技術(shù)的研究。相關(guān)代碼均已開源。

功能性磁共振成像(fMRI)雖廣泛用于解析神經(jīng)反應(yīng),但從其數(shù)據(jù)中準(zhǔn)確重建視覺圖像仍具挑戰(zhàn),主要因為 fMRI 數(shù)據(jù)包含多種來源的噪聲,這些噪聲可能掩蓋神經(jīng)激活模式,增加解碼難度。此外,視覺刺激引發(fā)的神經(jīng)反應(yīng)過程復(fù)雜多階段,使得 fMRI 信號呈現(xiàn)非線性的復(fù)雜疊加,難以逆轉(zhuǎn)并解碼。

傳統(tǒng)的神經(jīng)解碼方式,例如嶺回歸,盡管被用于將 fMRI 信號與相應(yīng)刺激關(guān)聯(lián),卻常常無法有效捕捉刺激和神經(jīng)反應(yīng)之間的非線性關(guān)系。近期,深度學(xué)習(xí)技術(shù),如生成對抗網(wǎng)絡(luò)(GAN)和潛在擴散模型(LDMs),已被采用以更準(zhǔn)確地建模這種復(fù)雜關(guān)系。然而,將視覺相關(guān)的大腦活動從噪聲中分離出來,并準(zhǔn)確進(jìn)行解碼,依然是該領(lǐng)域的主要挑戰(zhàn)之一。

為了應(yīng)對這些挑戰(zhàn),該工作提出了一個雙階段 fMRI 表征學(xué)習(xí)框架,該方法能夠有效識別并去除大腦活動中的噪聲,并專注于解析對視覺重建至關(guān)重要的神經(jīng)激活模式。該方法在生成高分辨率及語義準(zhǔn)確的圖像方面,其 50 分類的 Top-1 準(zhǔn)確率超過現(xiàn)有最先進(jìn)技術(shù) 39.34%。

方法概述

fMRI 表征學(xué)習(xí) (FRL)

wKgZomWINLKAcFDpAAO2RXreIdY129.png

第一階段:預(yù)訓(xùn)練雙對比掩模自動編碼器 (DC-MAE)

為了在不同人群中區(qū)分共有的大腦活動模式和個體噪聲,本文引入了 DC-MAE 技術(shù),利用未標(biāo)記數(shù)據(jù)對 fMRI 表征進(jìn)行預(yù)訓(xùn)練。DC-MAE 包含一個編碼器wKgZomWINLOACY85AAATCYkGrj4217.jpg和一個解碼器wKgZomWINLOABwpmAAATHGKaoqQ493.jpg,其中wKgZomWINLOACY85AAATCYkGrj4217.jpg以遮蔽的 fMRI 信號為輸入,wKgZomWINLOABwpmAAATHGKaoqQ493.jpg?則被訓(xùn)練以預(yù)測未遮蔽的 fMRI 信號。所謂的 “雙重對比” 是指模型在 fMRI 表征學(xué)習(xí)中優(yōu)化對比損失并參與了兩個不同的對比過程。

在第一階段的對比學(xué)習(xí)中,每個包含 n 個 fMRI 樣本 v 的批次中的樣本wKgZomWINLOAZytRAAAY_FrfB3k709.jpg被隨機遮蔽兩次,生成兩個不同的遮蔽版本wKgZomWINLOAArgcAAAUaigjVac307.jpgwKgZomWINLOAPQaBAAAUPkzrEOE862.jpg,作為對比的正樣本對。隨后,1D 卷積層將這兩個版本轉(zhuǎn)換為嵌入式表示,分別輸入至 fMRI 編碼器wKgZomWINLOACY85AAATCYkGrj4217.jpg解碼器wKgZomWINLOABwpmAAATHGKaoqQ493.jpg?接收這些編碼的潛在表示,產(chǎn)生預(yù)測值wKgZomWINLOAO6mOAAASQACFk9g996.pngwKgZomWINLOAet-dAAAVNYeXg70733.jpg通過 InfoNCE 損失函數(shù)計算的第一次對比損失,即交叉對比損失,來優(yōu)化模型:

wKgZomWINLSAIiN7AABBN0m1cj8083.jpg

在第二階段對比學(xué)習(xí)中,每個未遮蔽的原始圖像wKgZomWINLSAHEJRAAAXn-h_7Ng614.jpg及其相應(yīng)的遮蔽圖像wKgZomWINLSAC2WQAAAT5Kwzsi8234.jpg形成一對天然正樣本。這里的wKgZomWINLSAQovGAAAUiK-KtBw912.jpg代表解碼器wKgZomWINLOABwpmAAATHGKaoqQ493.jpg預(yù)測出的圖像。第二次對比損失,也就是自對比損失,根據(jù)以下公式進(jìn)行計算:

wKgZomWINLSAMPzRAABAeYZE5Qc055.jpg

優(yōu)化自對比損失wKgZomWINLSAF2rFAAARX8jVJfI764.png能夠?qū)崿F(xiàn)遮蔽重建。無論是wKgZomWINLSAfymTAAAS0IvT2_Q525.jpg還是wKgZomWINLSAF2rFAAARX8jVJfI764.png,負(fù)樣本wKgZomWINLSAXwLZAAAN_22lvAA884.png都來自同一批次的實例。wKgZomWINLSAfymTAAAS0IvT2_Q525.jpgwKgZomWINLSAF2rFAAARX8jVJfI764.png共同按如下方式優(yōu)化:wKgZomWINLWAD1DbAAAch545_CM537.jpg,其中超參數(shù)wKgZomWINLWAdlluAAASYyUq0R4990.jpgwKgZomWINLWAMR7FAAASq6Kh68E113.jpg于調(diào)節(jié)各損失項的權(quán)重。

  • 第二階段:使用跨模態(tài)指導(dǎo)進(jìn)行調(diào)整

考慮到 fMRI 記錄的信噪比較低且高度卷積的特性,專注于與視覺處理最相關(guān)且對重建最有信息價值的大腦激活模式對 fMRI 特征學(xué)習(xí)器來說至關(guān)重要。

在第一階段預(yù)訓(xùn)練后,fMRI 自編碼器通過圖像輔助進(jìn)行調(diào)整,以實現(xiàn) fMRI 的重建,第二階段同樣遵循此過程。具體而言,從 n 個樣本批次中選擇一個樣本wKgZomWINLWATUnSAAAXnpwIGVw982.jpg及其對應(yīng)的 fMRI 記錄的神經(jīng)反應(yīng)wKgZomWINLWAUdYrAAATFNte410567.jpgwKgZomWINLWAV1W_AAASi0eS_Co553.jpgwKgZomWINLWAUdYrAAATFNte410567.jpg經(jīng)過分塊和隨機遮蔽處理,分別轉(zhuǎn)變?yōu)?/span>wKgZomWINLWARjeiAAAT3H5zAhk833.jpgwKgZomWINLSAC2WQAAAT5Kwzsi8234.jpg,然后分別輸入到圖像編碼器wKgZomWINLaAVwfBAAAS6nvhto0598.jpg和 fMRI 編碼器wKgZomWINLOACY85AAATCYkGrj4217.jpg中,生成wKgZomWINLaAIzbCAAAcAQiZ6Yc949.jpgwKgZomWINLaAe6vgAAAcmXnXrIY053.jpg為重建 fMRIwKgZomWINLWAUdYrAAATFNte410567.jpg,利用交叉注意力模塊將wKgZomWINLaASTQoAAAUKoGGLKU898.jpgwKgZomWINLaAfeUhAAAT-v86Tio504.jpg進(jìn)行合并:

wKgZomWINLaAajRJAABNntKnTqU552.jpg

W 和 b 分別代表相應(yīng)線性層的權(quán)重和偏置。wKgZomWINLaATBQZAAAVPGeh5Og542.jpg是縮放因子,wKgZomWINLaAeeVsAAATW_AMVgw267.jpg是鍵向量的維度。CA 是交叉注意力(cross-attention)的縮寫。wKgZomWINLeAHF1nAAAfybuIBoI821.jpgwKgZomWINLaAe6vgAAAcmXnXrIY053.jpg后,輸入到 fMRI 解碼器中以重建wKgZomWINLWAUdYrAAATFNte410567.jpg,得到wKgZomWINLeAVvYYAAATnH0DhiA804.jpg

wKgZomWINLeAFXQxAAAxL45-TkQ550.jpg

圖像自編碼器中也進(jìn)行了類似的計算,圖像編碼器wKgZomWINLaAVwfBAAAS6nvhto0598.jpg的輸出wKgZomWINLeAUm6AAAAcAaDek6k559.jpg通過交叉注意力模塊wKgZomWINLeAQpWXAAATeI5Kmq8032.jpgwKgZomWINLOACY85AAATCYkGrj4217.jpg的輸出合并,然后用于解碼圖像wKgZomWINLWAV1W_AAASi0eS_Co553.jpg,得到wKgZomWINLeAKIigAAATwpBzL4M079.jpg

wKgZomWINLiAb5_6AAAxBx5M7Xg526.jpg

通過優(yōu)化以下?lián)p失函數(shù),fMRI 和圖像自編碼器共同進(jìn)行訓(xùn)練:

wKgZomWINLiAZrSMAAArMzBgJiY411.jpg

使用潛在擴散模型 (LDM) 生成圖像

wKgZomWINLiARoeeAAKqfqRTYGQ047.png

在完成 FRL 第一階段和第二階段的訓(xùn)練后,使用 fMRI 特征學(xué)習(xí)器的編碼器wKgZomWINLOACY85AAATCYkGrj4217.jpg來驅(qū)動一個潛在擴散模型(LDM),從大腦活動生成圖像。如圖所示,擴散模型包括一個向前的擴散過程和一個逆向去噪過程。向前過程逐漸將圖像降解為正態(tài)高斯噪聲,通過逐漸引入變方差的高斯噪聲。

該研究通過從預(yù)訓(xùn)練的標(biāo)簽至圖像潛在擴散模型(LDM)中提取視覺知識,并利用 fMRI 數(shù)據(jù)作為條件生成圖像。這里采用交叉注意力機制,將 fMRI 信息融入 LDM,遵循穩(wěn)定擴散研究的建議。為了強化條件信息的作用,這里采用了交叉注意力和時間步條件化的方法。在訓(xùn)練階段,使用 VQGAN 編碼器wKgZomWINLiALLOQAAATKKDDL5A531.jpg和經(jīng) FRL 第一和第二階段訓(xùn)練的 fMRI 編碼器wKgZomWINLOACY85AAATCYkGrj4217.jpg處理圖像 u 和 fMRI v,并在保持 LDM 不變的情況下微調(diào) fMRI 編碼器,損失函數(shù)為:

wKgZomWINLiAURK6AAAxi8Qwnmw428.jpg

其中,wKgZomWINLiAJMGVAAAh0LxI2rw895.jpg是擴散模型的噪聲計劃。在推理階段,過程從時間步長 T 的標(biāo)準(zhǔn)高斯噪聲開始,LDM 依次遵循逆向過程逐步去除隱藏表征的噪聲,條件化在給定的 fMRI 信息上。當(dāng)?shù)竭_(dá)時間步長零時,使用 VQGAN 解碼器wKgZomWINLiAXoQOAAATapgIzh8041.jpg將隱藏表征轉(zhuǎn)換為圖像。

實驗

重建結(jié)果

wKgZomWINLmADsjhAAWOjRY9Q58396.png

通過與 DC-LDM、IC-GAN 和 SS-AE 等先前研究的對比,并在 GOD 和 BOLD5000 數(shù)據(jù)集上的評估中顯示,該研究提出的模型在準(zhǔn)確率上顯著超過這些模型,其中相對于 DC-LDM 和 IC-GAN 分別提高了 39.34% 和 66.7%

wKgZomWINLmAUZrOAAQs152VB3o042.png

在 GOD 數(shù)據(jù)集的其他四名受試者上的評估顯示,即使在允許 DC-LDM 在測試集上進(jìn)行調(diào)整的情況下,該研究提出的模型在 50 種方式的 Top-1 分類準(zhǔn)確率上也顯著優(yōu)于 DC-LDM,證明了提出的模型在不同受試者大腦活動重建方面的可靠性和優(yōu)越性。

實驗結(jié)果表明,利用所提出的 fMRI 表示學(xué)習(xí)框架和預(yù)先訓(xùn)練的 LDM,可以更好的重建大腦的視覺活動,大大優(yōu)于目前的基線。該工作有助于進(jìn)一步挖掘神經(jīng)解碼模型的潛力。


原文標(biāo)題:NeurIPS23|視覺 「讀腦術(shù)」:從大腦活動中重建你眼中的世界

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:NeurIPS23|視覺 「讀腦術(shù)」:從大腦活動中重建你眼中的世界

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    感知到運控:具身智能機器人控制器的雙協(xié)同設(shè)計與場景適配

    ,則是協(xié)調(diào)全身的“大腦”與“小腦”,既要像大腦一樣思考決策,又要像小腦一樣精準(zhǔn)控制運動。作為具身智能機器人的核心樞紐,控制器直接決定了它能否在復(fù)雜場景“像人一樣靈活”,甚至超越人類的精準(zhǔn)與可靠。
    的頭像 發(fā)表于 05-11 17:42 ?302次閱讀
    <b class='flag-5'>從</b>感知到運控:具身智能機器人控制器的雙<b class='flag-5'>腦</b>協(xié)同設(shè)計與場景適配

    具身智能×邊緣計算:AI的“大腦”和“身體”如何聯(lián)手闖蕩世界

    兩個關(guān)鍵詞——具身智能和邊緣計算。它們就像是智能世界的“大腦”和“身體”,通過協(xié)同合作,讓機器“能聽話”進(jìn)化到“懂世界”。那么,這兩者是如何互相成就的呢?今天我
    的頭像 發(fā)表于 04-30 18:34 ?234次閱讀
    具身智能×邊緣計算:AI的“<b class='flag-5'>大腦</b>”和“身體”如何聯(lián)手闖蕩<b class='flag-5'>世界</b>?

    雙編碼器:開啟人工智能的&quot;雙協(xié)同&quot;新紀(jì)元

    在人工智能從"單模態(tài)感知"向"多模態(tài)理解"躍遷的浪潮,一個名為 雙編碼器(Dual-Encoder) 的架構(gòu)正悄然重塑技術(shù)邊界。它像人類大腦中分工協(xié)作的左右半球——一個負(fù)責(zé)語言邏輯,一個處理視覺
    的頭像 發(fā)表于 04-25 08:34 ?334次閱讀
    雙編碼器:開啟人工智能的&quot;雙<b class='flag-5'>腦</b>協(xié)同&quot;新紀(jì)元

    電基礎(chǔ)系列之電電極的分類與技術(shù)對比

    電電極的概述腦電圖(Electroencephalogram,EEG)是通過記錄大腦皮層神經(jīng)元電活動來反映功能狀態(tài)的重要技術(shù)手段,廣泛應(yīng)用于臨床診斷、神經(jīng)科學(xué)研究及
    的頭像 發(fā)表于 03-13 10:27 ?1551次閱讀
    <b class='flag-5'>腦</b>電基礎(chǔ)系列之<b class='flag-5'>腦</b>電電極的分類與技術(shù)對比

    電偽跡系列之電偽跡處理與技術(shù)剖析

    在上一篇系列文章中了解到,電信號反映大腦神經(jīng)元活動,在神經(jīng)科學(xué)研究、臨床診斷、機接口等領(lǐng)域應(yīng)用廣泛。但電信號幅值微弱極易受偽跡干擾。這
    的頭像 發(fā)表于 03-04 20:24 ?899次閱讀
    <b class='flag-5'>腦</b>電偽跡系列之<b class='flag-5'>腦</b>電偽跡處理與技術(shù)剖析

    電偽跡全解析:類型、成因與影響

    電信號研究領(lǐng)域,電偽跡是影響數(shù)據(jù)準(zhǔn)確性的關(guān)鍵因素。深入了解電偽跡,對獲取可靠電數(shù)據(jù)、推動腦科學(xué)研究意義重大。電偽跡的產(chǎn)生根源
    的頭像 發(fā)表于 02-25 22:26 ?1866次閱讀
    <b class='flag-5'>腦</b>電偽跡全解析:類型、成因與影響

    Meta非入侵式機技術(shù):AI讀取大腦信號打字準(zhǔn)確率80%

    Meta首席執(zhí)行官馬克?扎克伯格曾透露,公司正在研發(fā)一項革命性的機技術(shù),旨在讓用戶通過大腦直接輸入文字。近日,《麻省理工技術(shù)評論》報道稱,Meta已經(jīng)成功實現(xiàn)了這一技術(shù)突破。 據(jù)悉,Meta的這項
    的頭像 發(fā)表于 02-11 15:45 ?645次閱讀

    如何才ADS1118回命令寄存器的值呢?

    參照ADS1118的說明書,我使用CC2530的串口1的SPI方式向ADS1118連接寫入4個字節(jié)的命令,我想問一下我如何才ADS1118回命令寄存器的值呢。意思就是在我寫入
    發(fā)表于 02-10 07:19

    SynSense時識科技亮相CES,展現(xiàn)類智能“芯”實力

    了一系列前沿的芯片產(chǎn)品,包括類感存算一體動態(tài)視覺智能SoC Speck?系列、類感知DVS事件相機系列以及類計算專用處理器Xylo?系列等。這些芯片產(chǎn)品憑借卓越的性能和創(chuàng)新的技術(shù)
    的頭像 發(fā)表于 01-13 15:37 ?660次閱讀

    使用ADS1299進(jìn)行電信號采集時采集不到電信號,怎么解決?

    您好!我這邊在使用ADS1299進(jìn)行電信號采集時采集不到電信號,用信號發(fā)生器進(jìn)行測試,能采集到0.5uV左右的正弦波,文檔是該芯片的原理圖和電極連接方式說明,請問是否有問題?還麻煩指教,謝謝!
    發(fā)表于 11-13 06:52

    解鎖機器人視覺與人工智能的潛力,“盲人機器”改造成有視覺能力的機器人(上)

    正如人類依賴眼睛和大腦來解讀世界,機器人也需要自己的視覺系統(tǒng)來有效運作。沒有視覺,機器人就如同蒙上雙眼的人類,僅能執(zhí)行預(yù)編程的命令,容易碰撞障礙物,并犯下代價高昂的錯誤。這正是機器人
    的頭像 發(fā)表于 10-12 09:56 ?759次閱讀
    解鎖機器人<b class='flag-5'>視覺</b>與人工智能的潛力,<b class='flag-5'>從</b>“盲人機器”改造成有<b class='flag-5'>視覺</b>能力的機器人(上)

    神經(jīng)重建在自動駕駛模擬的應(yīng)用

    AD和ADAS系統(tǒng)需要在能代表真實世界的3D環(huán)境條件下,依靠閉環(huán)驗證確保安全性和性能,然而手工構(gòu)建的3D環(huán)境很難解決Sim2Real的差距并且在可擴展方面存在一定的局限性。為此康謀為您介紹神經(jīng)重建如何打破限制,在自動駕駛模擬
    的頭像 發(fā)表于 08-21 10:03 ?1291次閱讀
    神經(jīng)<b class='flag-5'>重建</b>在自動駕駛模擬<b class='flag-5'>中</b>的應(yīng)用

    SynSense時識科技收購瑞士類視覺傳感器公司iniVation 100%股權(quán)

    SynSense時識科技今日宣布成功收購瑞士類視覺傳感器公司iniVation 100%股權(quán)。隨著交割完成,SynSense時識科技成為全球首個同時擁有類智能領(lǐng)域感知與計算技術(shù),并掌握該領(lǐng)域大量
    的頭像 發(fā)表于 07-19 18:09 ?1936次閱讀

    SynSense時識科技成功收購瑞士類視覺傳感器公司iniVation,類智能航母蓄勢待發(fā)

    SynSense時識科技今日宣布 成功收購瑞士類視覺傳感器公司iniVation 100%股權(quán) 。隨著交割完成,SynSense時識科技成為全球首個同時擁有類智能領(lǐng)域感知與計算技術(shù),并掌握該領(lǐng)域
    發(fā)表于 07-19 18:00 ?752次閱讀
    SynSense時識科技成功收購瑞士類<b class='flag-5'>腦</b><b class='flag-5'>視覺</b>傳感器公司iniVation,類<b class='flag-5'>腦</b>智能航母蓄勢待發(fā)

    機接囗疲勞預(yù)測解決方案

    方案簡介 一款雙通道電采集分析解決方案,基于唯理自研機接口芯片WL122,可以實現(xiàn)雙通道電信號的采集分析和無線傳輸。集成多種電算法API,可以完成對
    的頭像 發(fā)表于 07-15 17:37 ?550次閱讀
    <b class='flag-5'>腦</b>機接囗疲勞預(yù)測解決方案
    主站蜘蛛池模板: 午夜精品久久久久久91 | 一级片免费在线 | 日本三级黄在线观看 | 亚洲一区免费视频 | 亚洲一区免费在线观看 | 婷婷中文网 | 天天躁夜夜躁狠狠躁2021a | 成年色黄大色黄大片 视频 成年视频xxxxx免费播放软件 | 亚洲成人三级电影 | 亚洲综合色视频 | 久久精品亚洲一区二区三区浴池 | 日韩aa| 欧美黄色片在线 | 网友偷自拍原创区 | 国产一级特黄aa级特黄裸毛片 | 亚洲国产丝袜精品一区杨幂 | 天天操天天摸天天干 | 深爱五月网 | 永井玛丽亚中文在线观看视频 | 日本免费三级网站 | 天天色综合色 | 成人永久免费视频网站在线观看 | 天堂资源在线官网 | 五月天婷婷丁香花 | 一级片视频在线观看 | 一区二区三区视频 | 图片区网友自拍另类图区 | 日本69sex护士wwxx | 四虎成人在线视频 | 成人午夜大片免费看爽爽爽 | 在线观看黄a | 一级欧美日韩 | 国产精品久久久亚洲 | 九九热在线精品视频 | 又潮又黄的叫床视频 | 天天做天天爱天天大综合 | 亚洲视频1| 教官的好爽好深h片段 | 成人丁香婷婷 | 日本www网站 | 99热在线获取最新地址 |