在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌大腦開發(fā)人類翻譯器 打破AI黑盒新方式

電子工程師 ? 來源:cc ? 2019-01-29 09:59 ? 次閱讀

如果一個(gè)醫(yī)生告訴你需要做手術(shù),你肯定會(huì)想知道為什么,進(jìn)一步地,你會(huì)希望他給你一個(gè)就算沒學(xué)過醫(yī)也能聽得懂的明確解釋。谷歌大腦(Google Brain)的研究科學(xué)家Been Kim認(rèn)為,我們應(yīng)該對(duì)人工智能抱有同樣的期望。作為“可解釋”機(jī)器學(xué)習(xí)的專家,她希望構(gòu)建一個(gè)能夠向任何人解釋人工智能的軟件。

自從十年前人工智能興起以來,人工智能中的神經(jīng)網(wǎng)絡(luò)技術(shù)已經(jīng)從電子郵件滲透到了藥物研究等各個(gè)方面,它具有越來越強(qiáng)大的能力來學(xué)習(xí)和識(shí)別出數(shù)據(jù)中的模式。

但這種能力帶來了一個(gè)讓人頭疼的問題:現(xiàn)代深度學(xué)習(xí)網(wǎng)絡(luò)之所以能夠?qū)崿F(xiàn)自動(dòng)駕駛和保險(xiǎn)欺詐識(shí)別這樣的壯舉,主要原因在于網(wǎng)絡(luò)的復(fù)雜性,其復(fù)雜度之高讓神經(jīng)網(wǎng)絡(luò)專家也不能解釋清楚網(wǎng)絡(luò)內(nèi)部到底是怎么工作的。

如果一個(gè)神經(jīng)網(wǎng)絡(luò)被訓(xùn)練來識(shí)別有患肝癌和精神分裂癥等疾病風(fēng)險(xiǎn)的患者,例如2015年紐約Mount Sinai醫(yī)院的“深度患者”系統(tǒng),我們無法得知網(wǎng)絡(luò)關(guān)注的是數(shù)據(jù)中的哪些特征,因?yàn)樯窠?jīng)網(wǎng)絡(luò)的層數(shù)太多了,每層中神經(jīng)元還有成百上千個(gè)連接。

越來越多的行業(yè)正在試圖通過人工智能實(shí)現(xiàn)自動(dòng)化決策或增強(qiáng)他們的決策制定依據(jù),這個(gè)所謂的黑盒問題不是技術(shù)上的問題,而是神經(jīng)網(wǎng)路的根本性缺陷。

DARPA的“XAI”項(xiàng)目(針對(duì)“可解釋的人工智能”)正在積極鉆研這個(gè)問題,可解釋性在機(jī)器學(xué)習(xí)中的地位越來越高。Kim認(rèn)為:“人工智能正處于發(fā)展的關(guān)鍵時(shí)刻,我們需要判斷這項(xiàng)技術(shù)是否對(duì)我們有益。如果我們不能解決可解釋性問題,人工智能的發(fā)展可能會(huì)受到阻礙甚至被放棄。”

Kim和她在Google Brain的同事最近開發(fā)了一個(gè)名為“概念激活向量測(cè)試”(TCAV)的系統(tǒng),她將該系統(tǒng)描述為“人類翻譯器”,允許用戶查詢黑盒人工智能工作過程,即一個(gè)特定的高級(jí)概念在其訓(xùn)練中發(fā)揮了多大作用。例如,如果一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)被訓(xùn)練來識(shí)別圖像中的斑馬,那么人們可以使用TCAV來確定系統(tǒng)在做出決策時(shí)“條紋”特征起了多重要的作用。

TCAV最初是在用于識(shí)別圖像的機(jī)器學(xué)習(xí)模型上進(jìn)行測(cè)試的,但它也適用于文本和某些特定類型圖形數(shù)據(jù)(如腦電圖波形)的模型。 Kim表示,TCAV的通用性讓它能夠解釋許多不同的模型。

在Quanta雜志的采訪中Kim討論了可解釋性意味著什么,以及它為什么現(xiàn)在受到了這么多的關(guān)注。下面是一個(gè)經(jīng)過編輯和濃縮的采訪版本。

Q:你的職業(yè)生涯專注于機(jī)器學(xué)習(xí)的“可解釋性”,但那個(gè)詞究竟意味著什么呢?

A:可解釋性有兩個(gè)重要意義。對(duì)于科學(xué)研究來說:如果你把神經(jīng)網(wǎng)絡(luò)作為研究對(duì)象,那么你就可以進(jìn)行科學(xué)實(shí)驗(yàn)來真正理解模型的訓(xùn)練過程、神經(jīng)元是如何反饋信息等各種細(xì)節(jié)。

而對(duì)于實(shí)際應(yīng)用來說:用戶不必了解模型的每一個(gè)細(xì)節(jié),只要用戶能夠正確地使用該工具即可。這個(gè)方面是我最關(guān)注的,也是我們最終想要達(dá)到的目標(biāo)。

Q:你為什么會(huì)對(duì)一個(gè)你不完全理解運(yùn)作細(xì)節(jié)的系統(tǒng)有信心?

A:我給你打個(gè)比方。假設(shè)我后院有一棵樹,我想砍掉它,我可能會(huì)選擇使用電鋸去鋸樹。雖然現(xiàn)在,我不太了解電鋸的工作原理是什么,但電鋸的使用手冊(cè)上說明了使用步驟等信息,我可以安全地使用它。所以,有了這本手冊(cè),我更愿意使用省時(shí)省力的電鋸,而不是更安全的手鋸。

就好像你知道怎么運(yùn)用神經(jīng)網(wǎng)絡(luò),但是你不完全知道這個(gè)機(jī)制是如何實(shí)現(xiàn)的?

對(duì)。這就是第二個(gè)可解釋性的目標(biāo)是:我們能充分理解一個(gè)工具,以便安全地使用它。我們可以通過確認(rèn)工具中反映出的有用的人類知識(shí)來形成理解。

Q:“反映人類知識(shí)體系”為什么會(huì)使黑盒子AI變得更容易理解?

A:再舉個(gè)例子解釋一下,如果醫(yī)生使用機(jī)器學(xué)習(xí)模型來進(jìn)行癌癥診斷,那么醫(yī)生會(huì)想確認(rèn),該模型沒有關(guān)注不必要的數(shù)據(jù)點(diǎn)。確保這一點(diǎn)的一種方法就是確認(rèn)機(jī)器學(xué)習(xí)模型會(huì)做一些醫(yī)生想要做的事情,換句話說,就是證明模型學(xué)習(xí)到了醫(yī)生的診斷知識(shí)。

因此,如果醫(yī)生正在使用一個(gè)細(xì)胞標(biāo)本來診斷癌癥,他們是為了在標(biāo)本中尋找一種叫做“融合腺”的東西。同時(shí),他們還需要考慮患者的年齡,以及患者過去是否接受過化療等情況。這些都是醫(yī)生診斷癌癥時(shí)關(guān)心的因素,如果我們能證明機(jī)器學(xué)習(xí)模型也注意到了這些因素,那么模型就更容易被理解了,因?yàn)樗从沉酸t(yī)生的知識(shí)體系。

Google Brain的Been Kim正在研究如何讓我們理解機(jī)器學(xué)習(xí)系統(tǒng)做出的決定。

Q:那這就是TCAV的作用嗎?是為了揭示機(jī)器學(xué)習(xí)模型正在使用哪些高級(jí)概念來做出決策嗎?

A:對(duì)。在此之前,可解釋性方法只解釋了神經(jīng)網(wǎng)絡(luò)在“輸入特征”方面所做的工作。簡單來說,如果你有一張圖像,每個(gè)像素都作為一個(gè)輸入特征。事實(shí)上,Yann Lecun(一位早期的深度學(xué)習(xí)先驅(qū),目前是Facebook的人工智能研究主管)認(rèn)為,神經(jīng)網(wǎng)絡(luò)模型已經(jīng)具有可解釋性,因?yàn)槟憧梢圆榭瓷窠?jīng)網(wǎng)絡(luò)中的每個(gè)節(jié)點(diǎn),并查看每個(gè)輸入功能的數(shù)值。這對(duì)計(jì)算機(jī)來說沒問題,但人類的思維表示不是這樣的。我不會(huì)跟你說圖像的 100到200像素的RGB值是0.2和0.3,我會(huì)告訴你照片中狗的毛發(fā)特別蓬松,這就是人類描述的方式,我們是通過概念來溝通的。

Q:TCAV如何把輸入特征轉(zhuǎn)換為概念?

A:讓我們回到醫(yī)生使用機(jī)器學(xué)習(xí)模型的例子,例子中已經(jīng)訓(xùn)練過的模型對(duì)細(xì)胞標(biāo)本的圖像進(jìn)行分類以確定潛在的癌癥。作為醫(yī)生,你可能想知道“融合腺體”的概念在預(yù)測(cè)癌癥時(shí)對(duì)模型的重要性。首先你要收集一些有融合腺體的圖像示例——假設(shè)你收集了20 幅。然后,你將這些帶標(biāo)簽的示例輸入到模型中。

TCAV在模型內(nèi)部的作用被稱為“靈敏度測(cè)試”。當(dāng)我們添加這些標(biāo)記為融合腺體的圖片時(shí),癌癥陽性預(yù)測(cè)的概率增加了多少,可以用0到1之間的數(shù)值來表示,那就是你的TCAV分?jǐn)?shù)。如果概率增加,那么這是模型的一個(gè)重要概念。如果沒有,則不是一個(gè)重要概念。

Q:“概念”是一個(gè)模糊的術(shù)語。有沒有TCAV不起作用的時(shí)候?

A:如果你無法使用數(shù)據(jù)集的某些子集來描述你的概念,那么它就不起作用。如果你的機(jī)器學(xué)習(xí)模型是用圖像訓(xùn)練的,那么這個(gè)概念必須得是可視化表達(dá)的。比方說我想在視覺上表達(dá)“愛情”的概念就真的很難。

我們也仔細(xì)驗(yàn)證了這個(gè)概念。我們有一個(gè)統(tǒng)計(jì)測(cè)試程序,如果一個(gè)概念向量對(duì)模型的影響與隨機(jī)向量相同,那么這個(gè)概念向量就會(huì)被程序拋棄。如果你的概念沒有通過這個(gè)測(cè)試,那么TCAV會(huì)說:“我不知道。這個(gè)概念看起來不像對(duì)模型很重要的東西。”

Q:TCAV主要是用于在AI中建立信任,而不是真正理解它嗎?

A:不,不是這樣。接下來我會(huì)解釋原因,因?yàn)樗芎脜^(qū)分。

我們從認(rèn)知學(xué)和心理學(xué)的反復(fù)研究中得知人類非常容易上當(dāng)受騙。這意味著,騙一個(gè)人相信任某些東西實(shí)際上很容易。而機(jī)器學(xué)習(xí)的可解釋性的目標(biāo)正與此相反,它是要告訴你,使用某系統(tǒng)是否安全,并揭露背后的真相,所以“信任”這個(gè)詞的表達(dá)并不準(zhǔn)確。

Q:所以“可解釋性”的意思是揭示AI推理中的潛在缺陷?

A:是的,正是這樣。

Q:它如何揭示這些潛在缺陷?

A:您可以使用TCAV向受過訓(xùn)練的模型詢問不相關(guān)的概念。回到使用AI進(jìn)行癌癥預(yù)測(cè)的醫(yī)生的例子,醫(yī)生可能會(huì)突然想到,“看起來機(jī)器對(duì)于許多帶藍(lán)色的圖像給出癌癥陽性預(yù)測(cè)。我們認(rèn)為不應(yīng)該考慮這個(gè)因素。”因此,如果TCAV對(duì)于“藍(lán)色”給出高評(píng)分,那么他們就發(fā)現(xiàn)了機(jī)器學(xué)習(xí)模型中的一個(gè)問題。

TCAV旨在找出現(xiàn)有不可解釋的AI系統(tǒng)。那為什么不從一開始就使用可解釋的系統(tǒng),而要使用黑盒呢?

可解釋性研究的其中一個(gè)方面是構(gòu)建反映人類理解過程的固有可解釋模型。但我認(rèn)為:現(xiàn)在許多用于重要目的AI模型在一開始都沒有考慮可解釋性,這才是事實(shí)。比如,我們谷歌就有很多!你可以說,“既然解釋性是如此有用,那我為你建立另一個(gè)模型來取代你現(xiàn)有的模型吧。”好吧,那就祝你好運(yùn)。

Q:那么你下一步要做什么?

決定這項(xiàng)技術(shù)是否對(duì)我們有利對(duì)我們來說仍然很關(guān)鍵。這就是我使用“事后可解釋性”方法的原因。如果某人給你一個(gè)模型并且你無法改變它,你如何為其行為生成解釋,以便你可以安全地使用它?這就是TCAV的工作。

Q:TCAV可以讓人類詢問AI某概念是否重要。但是如果我們不知道該問什么怎么辦?如果我們想讓AI系統(tǒng)自己給出解釋呢?

A:我們目前正在編寫的系統(tǒng)可以自動(dòng)發(fā)掘概念。我們稱之為DTCAV——發(fā)掘型TCAV。但實(shí)際上,我認(rèn)為增加人為操作,并實(shí)現(xiàn)機(jī)器與人之間的對(duì)話,是實(shí)現(xiàn)可解釋性的關(guān)鍵。

很多時(shí)候,在高風(fēng)險(xiǎn)的應(yīng)用程序中,領(lǐng)域?qū)<乙呀?jīng)有了他們關(guān)心的概念列表。我們?cè)贕oogle Brain的醫(yī)療應(yīng)用中不止一次看到這一點(diǎn)。他們不希望模型自己找出一系列概念——他們想要告訴模型他們感興趣的概念。我們與治療糖尿病視網(wǎng)膜病變(一種眼疾)的醫(yī)生一起工作,當(dāng)我們告訴她什么是TCAV的時(shí)候她非常興奮,因?yàn)樗呀?jīng)有很多關(guān)于這個(gè)模型可能做什么的假設(shè),現(xiàn)在她正好可以驗(yàn)證一下這些假設(shè)。TCAV實(shí)際上很有優(yōu)勢(shì),因?yàn)樗且环N以用戶為中心的協(xié)作機(jī)器學(xué)習(xí)方式。

Q:AI技術(shù)非常強(qiáng)大,你真的認(rèn)為人們會(huì)因?yàn)槠洳痪邆淇山忉屝远艞壥褂脝幔?/p>

A:是的,我認(rèn)為是這樣。在專家系統(tǒng)上已經(jīng)發(fā)生過類似的事情了。20世紀(jì)80年代,使用專家系統(tǒng)執(zhí)行某些任務(wù)比雇傭人類操作員要便宜的多。但是現(xiàn)在誰還在使用專家系統(tǒng)?沒人。因此,很久以后我們也可能會(huì)放棄使用AI技術(shù)。

當(dāng)然目前放棄AI不太可能,因?yàn)锳I現(xiàn)在被炒的很熱,而且已經(jīng)投入了大量的資金。但從長遠(yuǎn)來看,我認(rèn)為人類可能會(huì)判定這種技術(shù)不適合我們,或許是出于恐懼,或許是因?yàn)槠淙狈山忉屝裕@都是有可能的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6220

    瀏覽量

    107362
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    33941

    瀏覽量

    274836

原文標(biāo)題:谷歌大腦開發(fā)機(jī)器思維的“人類翻譯器”,打破AI“黑盒”新方式

文章出處:【微信號(hào):BigDataDigest,微信公眾號(hào):大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NanoEdge AI Studio 面向STM32開發(fā)人員機(jī)器學(xué)習(xí)(ML)技術(shù)

    NanoEdge? AI Studio*(NanoEdgeAIStudio)是一種新型機(jī)器學(xué)習(xí)(ML)技術(shù),可以讓終端用戶輕松享有真正的創(chuàng)新成果。只需幾步,開發(fā)人員便可基于最少量的數(shù)據(jù)為其項(xiàng)目創(chuàng)建
    的頭像 發(fā)表于 04-22 11:09 ?366次閱讀
    NanoEdge <b class='flag-5'>AI</b> Studio 面向STM32<b class='flag-5'>開發(fā)人</b>員機(jī)器學(xué)習(xí)(ML)技術(shù)

    嵌入式AI加速DRP-AI 詳細(xì)介紹

    的嵌入式設(shè)備。此外,人工智能正在不斷發(fā)展,新的算法不時(shí)被開發(fā)出來。 在人工智能快速發(fā)展的過程中,瑞薩開發(fā)了人工智能加速(DRP-AI)和軟件(DRP-
    的頭像 發(fā)表于 03-15 16:13 ?827次閱讀
    嵌入式<b class='flag-5'>AI</b>加速<b class='flag-5'>器</b>DRP-<b class='flag-5'>AI</b> 詳細(xì)介紹

    10分鐘快速打造爆款AI硬件!涂鴉產(chǎn)品AI功能和智能體開發(fā)平臺(tái)重磅上新

    在智能化浪潮的推動(dòng)下,AI與智能設(shè)備的深度融合,不僅重塑了人類的生活方式,更為開發(fā)者帶來了無限想象空間。例如AI陪伴機(jī)器人、
    的頭像 發(fā)表于 03-06 18:59 ?574次閱讀
    10分鐘快速打造爆款<b class='flag-5'>AI</b>硬件!涂鴉產(chǎn)品<b class='flag-5'>AI</b>功能和智能體<b class='flag-5'>開發(fā)</b>平臺(tái)重磅上新

    AI助力實(shí)時(shí)翻譯耳機(jī)

    你是否曾經(jīng)因?yàn)檎Z言障礙而無法與外國人順暢交流?或者在旅行中因?yàn)檎Z言不通而錯(cuò)過了一些精彩的經(jīng)歷?現(xiàn)在,隨著AI技術(shù)的發(fā)展,實(shí)時(shí)翻譯耳機(jī)可以幫你輕松解決這些問題。 1 什么是實(shí)時(shí)翻譯耳機(jī) 實(shí)時(shí)翻譯
    的頭像 發(fā)表于 01-24 11:14 ?1284次閱讀
    <b class='flag-5'>AI</b>助力實(shí)時(shí)<b class='flag-5'>翻譯</b>耳機(jī)

    谷歌再投10億美元于Anthropic,加強(qiáng)AI領(lǐng)域布局

    近日,Alphabet Inc.旗下的谷歌公司宣布,將向人工智能(AI開發(fā)商Anthropic進(jìn)一步投資10億美元。這一舉動(dòng)表明,谷歌正在加大對(duì)這家頗具潛力的
    的頭像 發(fā)表于 01-23 15:20 ?462次閱讀

    谷歌加速AI部門整合:AI Studio團(tuán)隊(duì)并入DeepMind

    旗下,此舉旨在更好地整合人工智能部門,以提升各大項(xiàng)目的推進(jìn)效率。 AI Studio團(tuán)隊(duì)在谷歌內(nèi)部扮演著舉足輕重的角色,主要負(fù)責(zé)打造谷歌旗下的AI
    的頭像 發(fā)表于 01-13 14:40 ?565次閱讀

    自旋憶阻:最像大腦的存儲(chǔ)

    ? 一種名為“自旋憶阻”的新型神經(jīng)形態(tài)元件模仿人類大腦的節(jié)能運(yùn)作,將AI應(yīng)用程序的功耗降低到傳統(tǒng)設(shè)備的1/100。TDK與法國研究機(jī)構(gòu)CEA合作
    的頭像 發(fā)表于 12-07 10:08 ?475次閱讀

    MSPDebugStack開發(fā)人員指南

    電子發(fā)燒友網(wǎng)站提供《MSPDebugStack開發(fā)人員指南.pdf》資料免費(fèi)下載
    發(fā)表于 12-05 14:49 ?0次下載
    MSPDebugStack<b class='flag-5'>開發(fā)人</b>員指南

    IMAX攜手Camb.AI實(shí)現(xiàn)影院實(shí)時(shí)語言翻譯

    內(nèi)容和精彩紀(jì)錄片精準(zhǔn)地本地化為多達(dá)140種語言,以滿足全球不同地區(qū)觀眾的多樣化需求。傳統(tǒng)配音方式不僅成本高昂,而且耗時(shí)較長,難以滿足快速變化的市場(chǎng)需求。而Camb.AI的DubStudio平臺(tái)則憑借其先進(jìn)的人工智能技術(shù),承諾能夠在保證高質(zhì)量
    的頭像 發(fā)表于 11-26 13:55 ?747次閱讀

    谷歌:聚焦AI與技術(shù)創(chuàng)新,攜手中國開發(fā)者共筑未來

    2024年8月9日,備受矚目的谷歌開發(fā)者大會(huì)——I/O Connect China圓滿落幕。此次盛會(huì),谷歌面向中國廣大的開發(fā)者群體,全面展示了其在人工智能(
    的頭像 發(fā)表于 08-09 17:03 ?1101次閱讀

    谷歌Chrome瀏覽新增三大AI功能,提升用戶體驗(yàn)

    谷歌近日宣布,在其廣受歡迎的Chrome瀏覽中引入了三項(xiàng)前沿的AI技術(shù)功能,旨在為用戶提供更加智能、便捷的瀏覽體驗(yàn)。這些新功能由Gemini技術(shù)強(qiáng)力驅(qū)動(dòng),目前已在Chrome桌面版上線,標(biāo)志著
    的頭像 發(fā)表于 08-05 11:26 ?978次閱讀

    如何在Python中開發(fā)人工智能

    在Python中開發(fā)人工智能(AI)是一個(gè)廣泛而深入的主題,它涵蓋了從基礎(chǔ)的數(shù)據(jù)處理到復(fù)雜的機(jī)器學(xué)習(xí)、深度學(xué)習(xí)以及自然語言處理等多個(gè)領(lǐng)域。
    的頭像 發(fā)表于 07-15 15:01 ?3243次閱讀

    超ChatGPT-4o,國產(chǎn)大模型竟然更懂翻譯,8款大模型深度測(cè)評(píng)|AI 橫評(píng)

    隨著AI工具的不斷增多,各家模型的能力也日益提升,現(xiàn)在無論哪款大模型幾乎都能夠處理各種翻譯難題。在AI浪潮當(dāng)下,越來越多的論文和前沿信息需要快速翻譯和解讀,依賴傳統(tǒng)的
    的頭像 發(fā)表于 07-14 08:04 ?128次閱讀
    超ChatGPT-4o,國產(chǎn)大模型竟然更懂<b class='flag-5'>翻譯</b>,8款大模型深度測(cè)評(píng)|<b class='flag-5'>AI</b> 橫評(píng)

    微軟、谷歌等科技巨頭承諾安全開發(fā)AI模型

    近日,微軟、谷歌、OpenAI等16家科技巨頭在“人工智能(AI)首爾峰會(huì)”上達(dá)成共識(shí),承諾在AI模型的開發(fā)過程中注重安全性,并在無法控制最極端風(fēng)險(xiǎn)時(shí)關(guān)閉其尖端系統(tǒng)。
    的頭像 發(fā)表于 05-22 11:25 ?643次閱讀
    主站蜘蛛池模板: 免费看黄视频的网站 | 怡红院亚洲怡红院首页 | 一级三级黄色片 | 性欧美精品xxxx | 欧美一级二级三级视频 | 色一情一乱一乱91av | 91久久国产青草亚洲 | 国产小视频在线免费 | 丁香色综合 | 天堂v网| 97久久精品国产精品青草 | 亚洲福利一区福利三区 | 性试验k8经典 | 日本高清色视频在线观看免费 | 欧美午夜网站 | 午夜久久免影院欧洲 | 国产黄mmd在线观看免费 | 狠狠色噜噜狠狠色综合久 | 大片毛片女女女女女女女 | 天天干天天草天天射 | 天堂视频在线视频观看2018 | 白嫩美女在线啪视频观看 | 五月婷婷在线视频观看 | 国产91丝袜在线播放九色 | sss在线play | 美女一级毛片毛片在线播放 | 免费人成网站 | 1024你懂的国产在线播放 | av基地| 亚洲精品第三页 | 久久久久久久国产视频 | 国产h视频在线观看 | 午夜插| 狠狠叉| 国产三级a三级三级野外 | 欧美另类69 | 欧美日韩精品乱国产 | 六月丁香激情网 | 男人j进入女人免费视频 | 久久久国产精品网站 | 一级毛片ab片高清毛片 |