在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于人工智能的照片修復(fù)項(xiàng)目案例分析

vmsD_Bauhaus_de ? 2019-09-23 09:24 ? 次閱讀

AI-Based Photo Restoration

大家好!我是mail.ru集團(tuán)計(jì)算機(jī)視覺團(tuán)隊(duì)的研究工程師。在這篇文章中,我將講述一個(gè)關(guān)于我們?nèi)绾螢榕f的軍事照片創(chuàng)建基于人工智能的照片修復(fù)項(xiàng)目。什么是“照片復(fù)原”?它包括三個(gè)步驟:
?發(fā)現(xiàn)所有圖像的缺陷:破裂、刮傷、孔洞;
?根據(jù)周圍的像素值修復(fù)發(fā)現(xiàn)的缺陷;
?給圖像上色。
此外,我將描述照片恢復(fù)的每一步,并告訴你我們?nèi)绾潍@得數(shù)據(jù),我們訓(xùn)練了哪些網(wǎng)絡(luò),我們完成了什么,以及我們犯了什么錯(cuò)誤。

尋找缺陷

我們想在上傳的照片中找到所有與缺陷相關(guān)的像素。首先,我們需要弄清楚人們會(huì)上傳什么樣的圖片。我們采訪了“不朽軍團(tuán)”項(xiàng)目的創(chuàng)始人,這是一個(gè)非商業(yè)組織,存儲(chǔ)了二戰(zhàn)時(shí)遺留的照片,他們與我們分享了他們的數(shù)據(jù)。經(jīng)過分析,我們注意到人們上傳的大多是個(gè)人或團(tuán)體肖像,存在中等到大量的缺陷。
然后我們得收集一套訓(xùn)練器材。分割任務(wù)的訓(xùn)練集是一個(gè)圖像和一個(gè)標(biāo)記所有缺陷的掩碼。最簡(jiǎn)單的方法是讓評(píng)估人員創(chuàng)建分段掩碼。當(dāng)然,人們很清楚如何發(fā)現(xiàn)缺陷,但這需要很長(zhǎng)時(shí)間。

在一張照片上標(biāo)記缺陷像素可能需要一個(gè)小時(shí)或整個(gè)工作日。因此,要在幾周內(nèi)收集到超過100張圖片的訓(xùn)練集并不容易。這就是為什么我們?cè)噲D增加我們的數(shù)據(jù)并創(chuàng)建我們自己的缺陷:我們會(huì)拍一張好的照片,在圖像上使用隨機(jī)游動(dòng)添加缺陷,最后得到一個(gè)顯示有缺陷的圖像部分的遮罩。在沒有增強(qiáng)的情況下,我們?cè)谟?xùn)練集中有68張手動(dòng)標(biāo)記的照片,在驗(yàn)證集中有11張。

最流行的分割方法是:使用帶預(yù)訓(xùn)練編碼器的Unet,并最小化BCE(二進(jìn)制交叉熵)和DICE(binary cross-entropy]) 。

當(dāng)我們?cè)谌蝿?wù)中使用這種分割方法時(shí)會(huì)出現(xiàn)什么問題?

?即使照片看起來有很多缺陷,很舊很破舊,但有缺陷的區(qū)域仍然比未損壞的小得多。為了解決這個(gè)問題,我們可以增加BCE中的正類權(quán)重,一個(gè)最佳的權(quán)重是干凈像素與有缺陷像素的比率。
?第二個(gè)問題是,如果我們使用帶預(yù)訓(xùn)練編碼器(例如Albunet-18)的開箱即用Unet,我們會(huì)丟失很多位置數(shù)據(jù)。Albunet-18的第一層由一個(gè)核5的卷積和一個(gè)等于2的步長(zhǎng)組成。它可以讓網(wǎng)絡(luò)快速工作。為了更好地定位缺陷,我們交換了網(wǎng)絡(luò)操作時(shí)間:刪除了第一層之后的最大池,將步長(zhǎng)減少到1,將卷積核減少到3。
?如果我們通過壓縮小圖像(例如,將其壓縮到256 x 256或512 x 512像素)來處理小圖像,則由于插值,小缺陷將消失。因此,我們需要處理更大的圖像。我們目前正在生產(chǎn)中對(duì)1024x 1024大小的照片進(jìn)行缺陷分割。這就是為什么我們必須在大圖像上訓(xùn)練網(wǎng)絡(luò)。但是,這會(huì)導(dǎo)致單個(gè)GPU上的小批量出現(xiàn)問題。
?在培訓(xùn)期間,我們可以在一個(gè)GPU上安裝大約20個(gè)圖像。因此,我們?cè)赽atchnorm層中的平均值和標(biāo)準(zhǔn)偏差值不準(zhǔn)確。我們可以使用就地batchnorm解決這個(gè)問題,一方面節(jié)省內(nèi)存空間,另一方面,它有一個(gè)同步的batchnorm版本,可以同步所有GPU上的統(tǒng)計(jì)信息。現(xiàn)在,我們計(jì)算的平均值和標(biāo)準(zhǔn)偏差值不是針對(duì)單個(gè)GPU上的20個(gè)圖像,而是針對(duì)4個(gè)GPU上的80個(gè)圖像。這改善了網(wǎng)絡(luò)收斂性。
最后,通過增加bce權(quán)重、改變體系結(jié)構(gòu)、使用原位batchnorm,使分割效果更好。然而,通過增加測(cè)試時(shí)間來做更好的事情不會(huì)花費(fèi)太多的成本。我們可以在輸入圖片上運(yùn)行一次網(wǎng)絡(luò),然后對(duì)其進(jìn)行鏡像并重新運(yùn)行網(wǎng)絡(luò)以查找所有的小缺陷。

網(wǎng)絡(luò)在18小時(shí)內(nèi)匯聚在4個(gè)Geforce 1080ti上。推理需要290毫秒。這很長(zhǎng),但這是我們優(yōu)于默認(rèn)性能的代價(jià)。Validation DICE equals 0,35, and ROCAUC — 0,93.

圖像修復(fù)

與分割任務(wù)一樣,我們使用Unet。要進(jìn)行修補(bǔ),我們需要上傳一張?jiān)紙D像和一個(gè)遮罩,在那里我們用1和0標(biāo)記所有清潔區(qū)域-所有我們想要修補(bǔ)的像素。這就是我們收集數(shù)據(jù)的方式:對(duì)于來自開源圖像數(shù)據(jù)集(例如openimagesv4)的任何照片,我們都添加了與現(xiàn)實(shí)生活中看到的類似的缺陷。然后我們訓(xùn)練網(wǎng)絡(luò)恢復(fù)丟失的部分。
我們?nèi)绾涡薷倪@個(gè)任務(wù)的Unet?
我們可以用部分卷積代替原來的卷積。其思想是,當(dāng)我們用一些核卷積一個(gè)區(qū)域時(shí),我們不考慮缺陷像素值,這使得修補(bǔ)更加精確。我們向您展示了最近Nvidia論文中的一個(gè)例子。他們?cè)谥虚g的圖片中使用了默認(rèn)的二維卷積的Unet,在右邊的圖片中使用了部分卷積的Unet。

我們訓(xùn)練花了五天。最后一天,我們凍結(jié)了批處理規(guī)范,以減少著色部分的邊界。
網(wǎng)絡(luò)處理一張512 x 512的圖片需要50毫秒。驗(yàn)證PSNR等于26,4。但是,您不能完全依賴此任務(wù)中的度量。為了選擇最好的模型,我們對(duì)估值圖像運(yùn)行了幾個(gè)好的模型,匿名投票給我們最喜歡的模型,這就是我們選擇最終模型的方式。
如我之前提到過,我們?nèi)藶榈卦诟蓛舻膱D像中添加了一些缺陷。在訓(xùn)練過程中,您應(yīng)該始終跟蹤添加的缺陷的最大大小;如果您將一個(gè)具有非常大缺陷的圖像饋送到網(wǎng)絡(luò),而在訓(xùn)練階段它從未處理過該圖像,則網(wǎng)絡(luò)將瘋狂運(yùn)行并產(chǎn)生不適用的結(jié)果。因此,如果你需要修復(fù)大的缺陷,用它們來增加你的訓(xùn)練集。
下面是我們的算法如何工作的示例:

著色

我們將缺陷分割并修補(bǔ);第三步-顏色重建。就像我之前說的,照片中有很多個(gè)人和團(tuán)體的肖像。我們希望我們的網(wǎng)絡(luò)能和他們很好地配合。我們決定提出自己的彩色化,因?yàn)闆]有一個(gè)現(xiàn)有的服務(wù)可以快速和有效的彩色肖像。我們希望彩色照片更真實(shí)可信。

Github有一個(gè)流行的照片著色庫(kù)。它做得很好也有一些問題。例如,它傾向于把衣服涂成藍(lán)色。所以我不用它。
因此,我們決定創(chuàng)建一個(gè)圖像著色算法。最明顯的想法是:拍攝一張黑白圖像,預(yù)測(cè)三個(gè)通道:紅色、綠色和藍(lán)色。然而,我們可以使我們的工作更容易:工作不是用RGB顏色表示,而是與YCbCr顏色表示。y分量是亮度(luma)。上傳的黑白圖像是y通道,我們將重用它。現(xiàn)在我們需要預(yù)測(cè)Cb和Cr:Cb是藍(lán)色和亮度的差,Cr是紅色和亮度的差。

為什么我們選擇YCbCr代表?人眼對(duì)亮度的變化比對(duì)顏色的變化更敏感。這就是為什么我們重復(fù)使用人眼最敏感的Y分量(亮度),并預(yù)測(cè)Cb和Cr,因?yàn)槲覀儾荒芎芎玫刈⒁獾筋伾奶摷傩裕晕覀兛赡軙?huì)犯錯(cuò)誤。這一特性在彩色電視出現(xiàn)之初就得到了廣泛的應(yīng)用,當(dāng)時(shí)的頻道容量還不足以傳輸所有的顏色。圖像在YCbCr中傳輸,不改變y分量,Cb和Cr減少一半。

如何創(chuàng)建基線

我們可以采用帶預(yù)訓(xùn)練編碼器的Unet,并將現(xiàn)有CbCr值和預(yù)測(cè)值之間的l1損失最小化。我們想給人像上色,因此,除了openimages照片,我們還需要更多特定于任務(wù)的照片。
我們?cè)谀睦锟梢缘玫酱┲娧b的人的彩色照片?互聯(lián)網(wǎng)上有人把舊照片上色當(dāng)作一種愛好或是一種代價(jià)。他們做得很仔細(xì),盡量精確。當(dāng)他們給制服、肩章和獎(jiǎng)?wù)律仙珪r(shí),他們會(huì)參考檔案材料,因此他們的工作成果是值得信賴的。總而言之,我們使用了200張手工著色的照片,上面有穿著軍裝的人。
另一個(gè)有用的數(shù)據(jù)來源是工農(nóng)紅軍網(wǎng)站。它的一個(gè)創(chuàng)立者幾乎每到第二次世界大戰(zhàn)時(shí)都會(huì)穿著蘇維埃的制服拍照。

在一些照片中,他模仿著名的檔案照片中人們的姿勢(shì)。他的照片有白色背景是一件好事:它讓我們可以通過在背景中添加各種自然物體來很好地?cái)U(kuò)充數(shù)據(jù)。我們還使用了一些常規(guī)的肖像,以徽章和其他戰(zhàn)時(shí)特征作為補(bǔ)充。
我們訓(xùn)練了Albunet-50——它是一個(gè)使用預(yù)先訓(xùn)練的Resnet-50作為編碼器的Unet。網(wǎng)絡(luò)開始提供足夠的結(jié)果:皮膚是粉紅色的,眼睛是灰藍(lán)色的,肩膀是黃色的。然而,問題是它讓照片上的一些區(qū)域沒有受到影響。這是因?yàn)楦鶕?jù)錯(cuò)誤L1,在不做任何事情比試圖預(yù)測(cè)某種顏色更好的地方找到這樣的最佳值。

我們正在將我們的結(jié)果與地面真實(shí)照片進(jìn)行比較-這是由Klimbim完成的手動(dòng)著色。
我們?cè)鯓硬拍芙鉀Q這個(gè)問題?我們需要一個(gè)鑒別器:一個(gè)接收?qǐng)D像并告訴我們圖像是否真實(shí)的神經(jīng)網(wǎng)絡(luò)。下面的一張圖片是手動(dòng)著色的,另一張是由我們的生成器Albunet-50著色的。人類如何區(qū)分手動(dòng)和自動(dòng)彩色照片?通過觀察細(xì)節(jié)。你能告訴我們的基線解決方案后自動(dòng)著色的照片在哪張圖嗎?

答:左邊的圖片是手動(dòng)著色,右邊的是自動(dòng)著色。
我們使用了來自自聚焦Self-Attention GAN鑒別器。這是一個(gè)小型的卷積網(wǎng)絡(luò),所謂的自我關(guān)注建立在頂層。它允許我們“更加關(guān)注”圖像細(xì)節(jié),我們也使用光譜標(biāo)準(zhǔn)化。你可以在別的文章中找到更多的信息。我們用L1損失和鑒別器損失的組合來訓(xùn)練網(wǎng)絡(luò)。現(xiàn)在,網(wǎng)絡(luò)使圖像的細(xì)節(jié)顏色更好,背景看起來更加一致。再舉一個(gè)例子:左邊是只訓(xùn)練了L1損耗的網(wǎng)絡(luò)工作;右邊是L1鑒別器損耗的組合。


在四臺(tái)GeForce 1080ti上訓(xùn)練過程花了兩天時(shí)間。處理一張512 x 512的圖片需要30毫秒的時(shí)間。Validation MSE — 34.4。就像修復(fù)一樣,度量你不想依賴于度量。這就是為什么我們選擇了六個(gè)具有最佳驗(yàn)證指標(biāo)的模型,并盲投選出了最佳模型。
當(dāng)我們已經(jīng)創(chuàng)建了一個(gè)制作系統(tǒng)并發(fā)布了一個(gè)網(wǎng)站時(shí),我們繼續(xù)進(jìn)行實(shí)驗(yàn)并得出結(jié)論,我們最好不是將每像素L1的損失降到最低,而是將感知損失降到最低。為了計(jì)算它,我們將網(wǎng)絡(luò)預(yù)測(cè)和地面實(shí)況照片輸入VGG-16網(wǎng)絡(luò),獲取底層特征圖并與MSE進(jìn)行比較。這種方法繪制了更多的區(qū)域,并給出了更豐富多彩的結(jié)果。

扼要重述

Unet是一個(gè)非常酷的模型。在第一個(gè)分割任務(wù)中,我們?cè)谟?xùn)練過程中遇到了一個(gè)問題,我們使用高分辨率圖像,這就是我們使用就地BatchNorm的原因。在我們的第二個(gè)任務(wù)(修復(fù))中,我們使用了部分卷積而不是默認(rèn)卷積,這使我們能夠獲得更好的結(jié)果。在進(jìn)行彩色化時(shí),我們添加了一個(gè)小的鑒別器網(wǎng)絡(luò),該網(wǎng)絡(luò)對(duì)不真實(shí)圖像的生成器進(jìn)行懲罰。我們還使用了知覺損失。
第二個(gè)結(jié)論-評(píng)估師是必不可少的。不僅在創(chuàng)建分段掩碼階段,而且在最終結(jié)果驗(yàn)證階段。最后,我們給用戶三張圖片:一張有修補(bǔ)缺陷的原始圖片,一張有修補(bǔ)缺陷的彩色圖片和一張簡(jiǎn)單的彩色圖片,以防缺陷搜索和修補(bǔ)算法出錯(cuò)。
我們從戰(zhàn)爭(zhēng)相冊(cè)項(xiàng)目中拍攝了一些照片,并通過這些神經(jīng)元進(jìn)行處理。以下是我們得到的結(jié)果:

此外,在這里您可以更仔細(xì)地查看原始圖像和所有處理階段。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1800

    文章

    48098

    瀏覽量

    242244

原文標(biāo)題:基于AI的照片修復(fù)項(xiàng)目研究

文章出處:【微信號(hào):Bauhaus_design,微信公眾號(hào):VR設(shè)計(jì)云課堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工智能是什么?

    ` 人工智能是什么?什么是人工智能人工智能是未來發(fā)展的必然趨勢(shì)嗎?以后人工智能技術(shù)真的能達(dá)到電影里機(jī)器人的智能水平嗎?如果技術(shù)成熟的那一天
    發(fā)表于 09-16 15:40

    百度人工智能大神離職,人工智能的出路在哪?

    `今天,吳恩達(dá)確認(rèn)離職百度的消息迅速在業(yè)界刷屏。吳恩達(dá)曾不止一次感慨,現(xiàn)在人工智能最大的問題就是“機(jī)會(huì)太多,但人才太少”。AI,人工智能,該領(lǐng)域的研究包括機(jī)器人、語言識(shí)別、圖像識(shí)別、自然語言處理
    發(fā)表于 03-23 17:00

    人工智能蜘蛛抓取量分析

    人工智能蜘蛛抓取量分析
    發(fā)表于 09-15 14:16

    【下載】《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》

    人工智能標(biāo)準(zhǔn)化白皮書(2018版)》,白皮書通過梳理人工智能技術(shù)、應(yīng)用和產(chǎn)業(yè)演進(jìn)情況,分析人工智能的技術(shù)熱點(diǎn)、行業(yè)動(dòng)態(tài)和未來趨勢(shì),從支撐人工智能
    發(fā)表于 02-02 18:00

    人工智能就業(yè)前景

    據(jù)相關(guān)招聘機(jī)構(gòu)數(shù)據(jù)顯示,2018年AI領(lǐng)域仍然是大部分資深技術(shù)人才轉(zhuǎn)崗的首選目標(biāo),在人才最緊缺的前十大職位中,時(shí)下最火的大數(shù)據(jù)、人工智能、算法類崗位占據(jù)半壁江山。據(jù)調(diào)查指出,2017年技術(shù)研發(fā)類崗位
    發(fā)表于 03-29 15:46

    “洗牌”當(dāng)前 人工智能企業(yè)如何延續(xù)熱度?

    `最新統(tǒng)計(jì)數(shù)據(jù)顯示,自2017年以來,全球人工智能企業(yè)的數(shù)量激增,總數(shù)已翻了一番。這些人工智能企業(yè)已在新零售、醫(yī)療、金融、無人駕駛、工業(yè)機(jī)器人等領(lǐng)域加速項(xiàng)目落地,人工智能市場(chǎng)迅速成長(zhǎng),
    發(fā)表于 11-07 11:49

    解讀人工智能的未來

    而言,我們能夠?qū)崿F(xiàn)的只是一種狹義的人工智能,它需要由人類精心準(zhǔn)備數(shù)據(jù)集然后進(jìn)行人工訓(xùn)練。例如,如果要教會(huì)AI識(shí)別貓的圖片,你需要有一個(gè)龐大的照片數(shù)據(jù)庫(kù),每個(gè)照片必須
    發(fā)表于 11-14 10:43

    人工智能醫(yī)生未來或上線,人工智能醫(yī)療市場(chǎng)規(guī)模持續(xù)增長(zhǎng)

    。   ——提高癌癥篩查效率。早診早治是提高癌癥治愈率的關(guān)鍵。2018年12月,中山大學(xué)腫瘤防治中心牽頭開展上消化道腫瘤人工智能診療決策系統(tǒng)的研發(fā)及推廣應(yīng)用項(xiàng)目,根據(jù)該系統(tǒng)試用初期數(shù)據(jù)分析,臨床試用中惡性腫瘤識(shí)別
    發(fā)表于 02-24 09:29

    人工智能:超越炒作

    如果有一個(gè)真正的指標(biāo)可以衡量新技術(shù)的破壞性,那肯定是公眾對(duì)恐懼和懷疑的滔滔不絕。如果我們以社會(huì)焦慮作為衡量標(biāo)準(zhǔn),那么目前人工智能(AI)的復(fù)興是開創(chuàng)性技術(shù)破壞的良好候選者。人工智能將改變我們所知
    發(fā)表于 05-29 10:46

    基于人工智能克服數(shù)據(jù)分析限制

    以色列實(shí)時(shí)分析和異常檢測(cè)的大數(shù)據(jù)創(chuàng)業(yè)公司Anodot目前正在使用先進(jìn)的機(jī)器學(xué)習(xí)算法來克服人類在數(shù)據(jù)分析方面的限制。人工智能可以通過分析所有數(shù)據(jù)提出更多的答案,而Anodot認(rèn)為沒有將機(jī)
    發(fā)表于 07-29 08:06

    一文分析人工智能恐懼現(xiàn)象

    人工智能恐懼歷史溯源人工智能恐懼表現(xiàn)形式
    發(fā)表于 01-26 07:14

    人工智能芯片是人工智能發(fā)展的

    人工智能芯片是人工智能發(fā)展的 | 特倫斯謝諾夫斯基責(zé)編 | 屠敏本文內(nèi)容經(jīng)授權(quán)摘自《深度學(xué)習(xí) 智能時(shí)代的核心驅(qū)動(dòng)力量》從AlphaGo的人機(jī)對(duì)戰(zhàn),到無人駕駛汽車的上路,再到AI合成主播上崗
    發(fā)表于 07-27 07:02

    物聯(lián)網(wǎng)人工智能是什么?

    一、人工智能介紹工作以后想要拿高薪的話,人工智能是你的不二之選,那么問題來了,究竟什么是人工智能呢?又需要了解哪些才能去開發(fā)人工智能產(chǎn)品呢?接下來小編帶領(lǐng)大家進(jìn)入
    發(fā)表于 09-09 14:12

    如何用人工智能來解決攝影中照片出現(xiàn)人像模糊不清的問題

    哪些難題。ClearAi只需您輕輕點(diǎn)擊,即刻將您的老舊照片、像素不足照片、模糊或有損壞的照片變成高清并美化的照片!ClearAi使用最先進(jìn)的人工智能
    發(fā)表于 05-01 13:18

    《移動(dòng)終端人工智能技術(shù)與應(yīng)用開發(fā)》人工智能的發(fā)展與AI技術(shù)的進(jìn)步

    人工智能的發(fā)展是隨著人類生活需要,產(chǎn)業(yè)需求不斷提升的,其中人工智能的發(fā)展很大程度上受到了計(jì)算機(jī)算力的影響,隨著數(shù)據(jù)處理量的增大,人工智能算法對(duì)算力的要求逐年增加,而且沒過兩年算力上升一倍,因此往往
    發(fā)表于 02-17 11:00
    主站蜘蛛池模板: 亚洲qingse中文字幕久久 | 天天天操 | 手机在线电影你懂的 | 日本黄色片在线播放 | 午夜视频在线观看www中文 | free性欧美高清另类 | 色色色色色网 | 男人和女人做a免费视频 | 深夜视频免费看 | 日本特级淫片免费 | xx性欧美高清 | 日韩在线视频www色 日韩在线视频免费观看 | 亚洲aⅴ久久久噜噜噜噜 | 人与牲动交xxxxbbbb | 亚洲一区二区三区网站 | 天堂新版www中文 | 五月婷婷婷婷 | 22eee在线播放成人免费视频 | 特级做a爰片毛片免费看 | 天天躁日日躁成人字幕aⅴ 天天躁夜夜躁 | 国产激爽大片在线播放 | 欧美成人亚洲 | 色偷偷免费| 一级片特黄 | 亚洲偷图色综合色就色 | 欧美一级特黄高清免费 | 午夜男人天堂 | 你懂的视频在线观看资源 | 永久免费观看黄网站 | 久久国产免费福利永久 | 一卡二卡三卡四卡无卡在线 | 欧美成人精品一区二三区在线观看 | 级毛片 | yy4080午夜理论一级毛片 | 中国xxxxx高清免费看视频 | 理论在线看| 亚洲最大成人网色 | 韩国午夜精品理论片西瓜 | 国产尤物在线视频 | 精品爱爱 | 人妖另类亚洲xxxx |