在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)從社交媒體中為你發(fā)掘最美穿搭

nlfO_thejiangme ? 來源:lq ? 2019-10-01 16:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

穿衣搭配不僅反映個(gè)人的審美同時(shí)也與出席的場(chǎng)合、文化傳統(tǒng)息息相關(guān)。在一個(gè)時(shí)尚場(chǎng)景中,通常會(huì)包含三個(gè)要素:場(chǎng)合、個(gè)體和衣著。這些時(shí)尚信息和知識(shí)對(duì)于衣著推薦搭配等應(yīng)用十分重要。而當(dāng)今高度發(fā)展的社交媒體為時(shí)尚知識(shí)提供了豐富的資源,從朋友圈到微博從推特到Ins,人們?cè)诓煌瑘?chǎng)合的穿搭圖像、文字和多媒體信息構(gòu)成了龐大的信息資源。

來自新加坡國(guó)立大學(xué)的研究人員們利用深度學(xué)習(xí)集成多種方法來從社交媒體中抽取時(shí)尚三要素,以實(shí)現(xiàn)時(shí)尚知識(shí)的自動(dòng)化抽取和學(xué)習(xí),同時(shí)還構(gòu)建了以用戶為中心時(shí)尚知識(shí)抽取數(shù)據(jù)集FashionKE。

時(shí)尚時(shí)尚最時(shí)尚

隨著生活水平的不斷提高,人們的時(shí)尚需求不斷增加,對(duì)于不同場(chǎng)合的衣著搭配也有著更為精細(xì)化的需求。面對(duì)這個(gè)萬(wàn)億級(jí)的時(shí)尚市場(chǎng),如何將機(jī)器學(xué)習(xí)與深度學(xué)習(xí)更有效的應(yīng)用于時(shí)尚知識(shí)的學(xué)習(xí)、穿搭推薦甚至是知識(shí)級(jí)別的構(gòu)建是科技巨頭和研究人員們的研究熱點(diǎn)。

目前對(duì)于時(shí)尚知識(shí)級(jí)別的研究工作還比較有限,如何有效的穿衣搭配涉及到場(chǎng)景、主體和衣著三個(gè)關(guān)鍵因素。在日常生活有很多固定的經(jīng)驗(yàn)和模式幫助人們進(jìn)行有效的穿搭,但研究人員希望將這些模式總結(jié)成更為凝練的知識(shí)以指導(dǎo)不同的人在對(duì)應(yīng)的場(chǎng)合進(jìn)行最適宜的穿搭。在這一過程中,需要面對(duì)的第一個(gè)問題就是,從哪里去獲取這些知識(shí)呢?如何獲取這些知識(shí)呢?新加坡國(guó)立大學(xué)的研究人員給出了自己的答案。

他們將目光放到了各大社交媒體平臺(tái),從中進(jìn)行以用戶為中心的自動(dòng)化時(shí)尚知識(shí)抽取,來幫助實(shí)現(xiàn)這一目標(biāo)。為什么呢?社交媒體的龐大用戶規(guī)模保證了多模態(tài)數(shù)據(jù)的豐富和質(zhì)量,不僅包含了世界各地、各個(gè)場(chǎng)景中用戶的照片,同時(shí)也包含了包括性別在內(nèi)的個(gè)人屬性,而且還緊跟時(shí)尚潮流更新迅速。但有些利用這些數(shù)據(jù)還面臨著一系列挑戰(zhàn)。

首先時(shí)尚知識(shí)的抽取很大程度上決定于時(shí)尚概念和屬性抽取器的表現(xiàn),包括對(duì)于場(chǎng)景、衣著和飾品的識(shí)別檢測(cè)。雖然現(xiàn)在在學(xué)術(shù)界有很多研究成果,但大多集中于簡(jiǎn)單干凈的背景上,而現(xiàn)實(shí)中面對(duì)的卻是豐富多樣的自然場(chǎng)景,使得屬性檢測(cè)變得十分困難。第一個(gè)需要解決的挑戰(zhàn)就是需要實(shí)現(xiàn)自然場(chǎng)景和背景的時(shí)尚概念和屬性檢測(cè)。

其次社交媒體雖然豐富,但基本上缺乏時(shí)尚概念的標(biāo)注,但這對(duì)時(shí)尚知識(shí)的構(gòu)建十分重要。時(shí)尚知識(shí)自動(dòng)獲取的質(zhì)量極大地依賴于語(yǔ)義級(jí)的時(shí)尚概念學(xué)習(xí)。手工標(biāo)記如此龐大的數(shù)據(jù)是不現(xiàn)實(shí)的,而現(xiàn)存的電子商務(wù)數(shù)據(jù)主要集中于衣著屬性,缺乏人物和場(chǎng)景屬性的標(biāo)注。 如何解決這兩個(gè)問題成為了實(shí)現(xiàn)知識(shí)抽取的關(guān)鍵。

時(shí)尚知識(shí)自動(dòng)化抽取

為了解決這兩個(gè)問題,研究人員提出了一種基于弱標(biāo)記數(shù)據(jù)的時(shí)尚概念聯(lián)合檢測(cè)方法。這種基于上下文的時(shí)尚概念學(xué)習(xí)模塊可以有效捕捉不同時(shí)尚概念間的聯(lián)系和相關(guān)性,通過場(chǎng)景、衣著分類和屬性來輔助時(shí)尚知識(shí)抽取。其中弱標(biāo)記數(shù)據(jù)則有效應(yīng)對(duì)了缺乏標(biāo)記數(shù)據(jù)的困擾,在標(biāo)記遷移矩陣幫助下,通過機(jī)器標(biāo)記數(shù)據(jù)和干凈數(shù)據(jù)的結(jié)合可有效控制學(xué)習(xí)過程中的噪聲。

這一研究的目標(biāo)在于從社交媒體中抽取用戶為中心的時(shí)尚知識(shí)數(shù)據(jù),得到場(chǎng)景對(duì)應(yīng)穿著的結(jié)構(gòu)化數(shù)據(jù)為下游任務(wù)提供應(yīng)用基礎(chǔ)。

研究人員將時(shí)尚知識(shí)定義為個(gè)體、衣著和場(chǎng)合三元組合K={P,C,O},其中個(gè)體包括了人的屬性:性別、年齡、身材;服裝則包括了衣著的屬性和分類,用于定義特定類型的服飾,例如:一條深藍(lán)色的露肩長(zhǎng)裙;場(chǎng)景則包含了各種主體出席的場(chǎng)合、包括舞會(huì)、約會(huì)、會(huì)議、聚會(huì)等等及其相關(guān)的時(shí)間地點(diǎn)元數(shù)據(jù)。

研究人員的任務(wù)就是要從某個(gè)po出的社交媒體信息{V(圖像),T(文字),M(元數(shù)據(jù))}中抽取出上面的信息構(gòu)成時(shí)尚知識(shí){P,C.Q}。這一任務(wù)自然包含了三個(gè)子任務(wù):人體屬性檢測(cè)、衣著分類和屬性檢測(cè)、場(chǎng)景檢測(cè)。

人體檢測(cè)框架目前很成熟,所以研究人員致力于后兩個(gè)子任務(wù)的開發(fā),從社交媒體數(shù)據(jù)中聯(lián)合檢測(cè)出主體所處的場(chǎng)景和服裝分類屬性。

為了有效檢測(cè)場(chǎng)景及其主體的衣著分類屬性,研究人員設(shè)計(jì)了一套統(tǒng)一的框架來獲取其屬性及相關(guān)性。這套基于上下文時(shí)尚概念的學(xué)習(xí)模型包含了兩個(gè)雙邊回歸神經(jīng)網(wǎng)絡(luò)來捕捉場(chǎng)景、衣著間的聯(lián)系。

對(duì)于某篇包含圖像V和文字T社交媒體來說,這一模型首先將衣著檢測(cè)模型檢測(cè)圖像中一系列的服飾區(qū)域。隨后針對(duì)圖像預(yù)測(cè)出對(duì)應(yīng)的場(chǎng)景標(biāo)簽,針對(duì)每個(gè)服裝區(qū)域預(yù)測(cè)出對(duì)應(yīng)的服裝類別和屬性標(biāo)簽。為了有效的預(yù)測(cè)出這三者之間的相關(guān)性,研究人員利用基于上下文的方式來從中得到不同屬性間的關(guān)系以便抽取知識(shí)。為了有效抽取知識(shí),需要對(duì)服裝分類、場(chǎng)景和服裝屬性的表示進(jìn)行學(xué)習(xí)。

分類表達(dá)。模型的第一步是學(xué)習(xí)服裝區(qū)域的上下文表示用于分類預(yù)測(cè)和整幅圖像的場(chǎng)景預(yù)測(cè)。研究人員首先利用與訓(xùn)練的CNN來抽取全圖和每個(gè)服裝區(qū)域的特征表示,隨后利用雙邊LSTM來編碼所有服裝區(qū)域間的相關(guān)性,并最終得到服裝區(qū)域的分類表達(dá)。

場(chǎng)景表達(dá)。為了更好的表達(dá)整幅圖像,研究人員將第一步中整幅圖像的CNN特征、上一步Bi-LSTM的最后隱含狀態(tài)及TextCNN抽取文字描述特征結(jié)合為新的特征,來實(shí)現(xiàn)場(chǎng)景表達(dá)學(xué)習(xí);

屬性表達(dá)。最后,由于每種服裝有包括顏色、長(zhǎng)短、外形等多個(gè)不同特征,所以需要屬性預(yù)測(cè)模塊來預(yù)測(cè)屬性。研究人員利用多分支的結(jié)構(gòu)來對(duì)不同種類的服飾進(jìn)行屬性預(yù)測(cè),每個(gè)分支輸出層的神經(jīng)元數(shù)量代表了對(duì)應(yīng)的屬性數(shù)目。

隨后為了捕捉不同服飾屬性和服飾分類間的依賴關(guān)系,研究人員使用了第二個(gè)雙邊LSTM來編碼屬性和分類間的依賴關(guān)系,并最終通過全連接轉(zhuǎn)換為屬性表達(dá)。最終通過標(biāo)準(zhǔn)的分類器將得到場(chǎng)景、服裝分類和屬性的預(yù)測(cè)分?jǐn)?shù)。

為了對(duì)這一模型進(jìn)行訓(xùn)練,研究人員構(gòu)建自己的數(shù)據(jù)集FashionKE,其中包含了80629張圖像,可以容易辨認(rèn)出時(shí)尚知識(shí)的三要素。同時(shí)對(duì)每張圖片進(jìn)行了場(chǎng)景標(biāo)注(十種主要場(chǎng)景);而針對(duì)服裝屬性和分類標(biāo)注,由于社交媒體數(shù)據(jù)過于龐大,對(duì)于每一個(gè)圖像和文字?jǐn)?shù)據(jù)進(jìn)行多種屬性的手工標(biāo)注是不現(xiàn)實(shí)的。只有30%的數(shù)據(jù)進(jìn)行了人工核對(duì),其他數(shù)據(jù)都利用時(shí)尚標(biāo)簽工具進(jìn)行機(jī)器標(biāo)注。

機(jī)器標(biāo)注的數(shù)據(jù)很廉價(jià),但是卻包含很多的噪聲,使得模型的訓(xùn)練容易出現(xiàn)過擬合。為了充分利用機(jī)器標(biāo)注的數(shù)據(jù)和少量人類標(biāo)記數(shù)據(jù),研究人員引入了弱標(biāo)記建模的方法來處理機(jī)器標(biāo)記數(shù)據(jù)中的噪聲。其基本思想是在模型中添加一個(gè)標(biāo)簽校正層,在預(yù)測(cè)層后利用估計(jì)出的標(biāo)簽轉(zhuǎn)換矩陣來實(shí)現(xiàn),使得預(yù)測(cè)與弱標(biāo)記的數(shù)據(jù)分布相匹配。這一轉(zhuǎn)換矩陣將通過與主干任務(wù)協(xié)同訓(xùn)練的線性層來得到。

實(shí)驗(yàn)和結(jié)果

研究人員在實(shí)驗(yàn)中發(fā)現(xiàn)新提出的框架和策略有效的實(shí)現(xiàn)了時(shí)尚概念的預(yù)測(cè)。通過與DARN、FashionNet和EITree的比較本文的方法在多個(gè)指標(biāo)上都超過了先前的方法。

一方面,由于本方法充分使用了機(jī)器標(biāo)注的模型并通過弱標(biāo)記建模模塊抑制了標(biāo)注噪聲的影響,從而得到了額外的增益。這一模型將場(chǎng)景、服裝分類和屬性間的依賴性和相關(guān)性進(jìn)行了考量,為時(shí)尚概念的識(shí)別提供了額外辨別能力。這些依賴性和相關(guān)性表明時(shí)尚知識(shí)的存在以及對(duì)于相關(guān)應(yīng)用的積極作用。

另一方面,這一方法還通過文字信息進(jìn)一步提升了性能,特別是在場(chǎng)景分類中很多社交媒體的問題信息包含了豐富的場(chǎng)景信息,有助于時(shí)尚信息的抽取。

此外通過消融性分析,研究人員發(fā)現(xiàn)第一個(gè)Bi-LSTM通過學(xué)習(xí)出不同服裝區(qū)域間的相關(guān)性來提升了分類性能,并通過將隱含層的加入來替身了場(chǎng)景預(yù)測(cè)性能;第二個(gè)Bi-LSTM則通過不同屬性表達(dá)和分類表達(dá)間的依賴性建模來提升性能;同時(shí)兩個(gè)LSTM間的協(xié)同作用也將顯著加強(qiáng)模型知識(shí)抽取能力。

最后通過不同比例的噪聲數(shù)據(jù)對(duì)模型訓(xùn)練也顯示出弱標(biāo)記建模對(duì)于知識(shí)抽取能力的提升。

最后研究人員們還展示了基于這一模型在不同領(lǐng)域的應(yīng)用。

從時(shí)尚概念抽取時(shí)尚知識(shí),圖中展示了一部分結(jié)構(gòu)化的時(shí)尚知識(shí)

不同場(chǎng)景下人們的穿著服飾分析,包括國(guó)家、場(chǎng)合和季節(jié)都有著明顯的區(qū)分。

時(shí)尚知識(shí)分析,包含了不同季節(jié)和不同地區(qū)不同場(chǎng)合的穿著。

下圖還顯示了不同場(chǎng)合中最流行的服飾,包括了其中縱軸是男性女性對(duì)應(yīng)的十種場(chǎng)景、橫軸是對(duì)應(yīng)的流行穿著。可以看到會(huì)議中男性傾向于穿著夾克外套、舞會(huì)中女性則喜愛各種連衣裙。

同時(shí)研究人員們還分析了不同屬性和分類間的相關(guān)性,圖中的節(jié)點(diǎn)大小代表了服飾的數(shù)量,邊的寬度代表了相關(guān)性的強(qiáng)弱。可以看到牛仔褲和襯衫T恤都是大家的最愛搭配。而不同屬性間的相關(guān)性中可以看到長(zhǎng)款衣服還是主流,長(zhǎng)袖長(zhǎng)褲是主流搭配。

在未來研究人員們還將探索包括時(shí)尚穿搭推薦的不同領(lǐng)域的應(yīng)用,并對(duì)更加細(xì)粒度的知識(shí)進(jìn)行抽取,同時(shí)加入不同的視覺概念來實(shí)現(xiàn)包括交叉模態(tài)檢索和人體檢索等更多的檢索任務(wù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模塊
    +關(guān)注

    關(guān)注

    7

    文章

    2787

    瀏覽量

    50226
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4813

    瀏覽量

    103419
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5560

    瀏覽量

    122745

原文標(biāo)題:對(duì)面的女孩看過來,深度學(xué)習(xí)從社交媒體中為你發(fā)掘最美穿搭

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。
    的頭像 發(fā)表于 04-02 18:21 ?866次閱讀

    軍事應(yīng)用深度學(xué)習(xí)的挑戰(zhàn)與機(jī)遇

    人工智能尤其是深度學(xué)習(xí)技術(shù)的最新進(jìn)展,加速了不同應(yīng)用領(lǐng)域的創(chuàng)新與發(fā)展。深度學(xué)習(xí)技術(shù)的發(fā)展深刻影響了軍事發(fā)展趨勢(shì),導(dǎo)致戰(zhàn)爭(zhēng)形式和模式發(fā)生重大變化。本文將概述
    的頭像 發(fā)表于 02-14 11:15 ?515次閱讀

    AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制的應(yīng)用

    生產(chǎn)效率、保證產(chǎn)品質(zhì)量方面展現(xiàn)出非凡的能力。阿丘科技「AI干貨補(bǔ)給站」推出《AI自動(dòng)化生產(chǎn):深度學(xué)習(xí)在質(zhì)量控制的應(yīng)用》文章,探討深度學(xué)習(xí)
    的頭像 發(fā)表于 01-17 16:35 ?679次閱讀
    AI自動(dòng)化生產(chǎn):<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在質(zhì)量控制<b class='flag-5'>中</b>的應(yīng)用

    GPU在深度學(xué)習(xí)的應(yīng)用 GPUs在圖形設(shè)計(jì)的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動(dòng)技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?1592次閱讀

    NPU在深度學(xué)習(xí)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之一,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門深度
    的頭像 發(fā)表于 11-14 15:17 ?1875次閱讀

    pcie在深度學(xué)習(xí)的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計(jì)算能力來訓(xùn)練。傳統(tǒng)的CPU計(jì)算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU(張量處理單元)等專用硬件應(yīng)運(yùn)而生,它們通過
    的頭像 發(fā)表于 11-13 10:39 ?1322次閱讀

    Pytorch深度學(xué)習(xí)訓(xùn)練的方法

    掌握這 17 種方法,用最省力的方式,加速的 Pytorch 深度學(xué)習(xí)訓(xùn)練。
    的頭像 發(fā)表于 10-28 14:05 ?642次閱讀
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練的方法

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU在深度學(xué)習(xí)的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識(shí)別 圖像識(shí)別是深度
    的頭像 發(fā)表于 10-27 11:13 ?1320次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    人類的學(xué)習(xí)過程,實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)的學(xué)習(xí)和識(shí)別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計(jì)算資源來進(jìn)行訓(xùn)練和推理。深度學(xué)習(xí)算法AI大模型
    的頭像 發(fā)表于 10-23 15:25 ?2853次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    支持不同的數(shù)據(jù)精度、量化和激活函數(shù)等。這種靈活性使其能夠適應(yīng)各種深度學(xué)習(xí)任務(wù),不同的應(yīng)用場(chǎng)景提供定制化的解決方案。 ? 低功耗:FPGA 是可編程的,可以在設(shè)計(jì)僅使用所需的計(jì)算資源
    發(fā)表于 09-27 20:53

    深度識(shí)別人臉識(shí)別有什么重要作用嗎

    深度學(xué)習(xí)人臉識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它利用深度學(xué)習(xí)算法來識(shí)別和驗(yàn)證個(gè)人身份。這項(xiàng)技術(shù)在多個(gè)領(lǐng)域都有廣泛的應(yīng)用,包括但不限于安全監(jiān)控、身份驗(yàn)證、
    的頭像 發(fā)表于 09-10 14:55 ?1119次閱讀

    深度學(xué)習(xí)算法在集成電路測(cè)試的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對(duì)測(cè)試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強(qiáng)大的數(shù)據(jù)處理和模式識(shí)別工具,在集成電路測(cè)試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。本文將從深度
    的頭像 發(fā)表于 07-15 09:48 ?1836次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語(yǔ)言處理、時(shí)間序列預(yù)測(cè)等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)練過程、以及測(cè)試和評(píng)估,并提供一個(gè)基于Mat
    的頭像 發(fā)表于 07-14 14:21 ?3604次閱讀

    深度學(xué)習(xí)反卷積的原理和應(yīng)用

    像分割、圖像重建和生成對(duì)抗網(wǎng)絡(luò)(GANs)等,反卷積展現(xiàn)出了其獨(dú)特的優(yōu)勢(shì)和廣泛的應(yīng)用前景。本文將詳細(xì)探討深度學(xué)習(xí)的反卷積技術(shù),包括其定義、原理、實(shí)現(xiàn)方式、應(yīng)用場(chǎng)景以及與其他上采樣方法的比較,以期
    的頭像 發(fā)表于 07-14 10:22 ?4759次閱讀

    貿(mào)澤開售AMD / Xilinx Alveo MA35D媒體加速器 媒體、游戲、遠(yuǎn)程醫(yī)療和在線學(xué)習(xí)應(yīng)用提供支持

    媒體加速器。Alveo MA35D媒體加速器是一款基于 ASIC 的AI視頻處理 PCIe 卡,適用于視頻協(xié)作、社交直播活動(dòng)、遠(yuǎn)程醫(yī)療、云游戲、拍賣、在線學(xué)習(xí)應(yīng)用等領(lǐng)域的高密度、超低延
    發(fā)表于 07-12 10:44 ?727次閱讀
    主站蜘蛛池模板: 天堂资源在线官网 | 天天操天天干天天射 | 四虎影院精品在线观看 | 亚洲视频在线一区 | 特黄一级黄色片 | 在线成人aa在线看片 | 久草婷婷| bbbb毛片免费看 | 美女毛片免费看 | 欧美午夜网 | 午夜手机福利视频 | 日产精品卡二卡三卡四卡无卡乱码 | 精品久久香蕉国产线看观看亚洲 | 唐人社电亚洲一区二区三区 | 99久久免费中文字幕精品 | 天堂视频在线免费观看 | 男人午夜免费视频 | 欧美五月| 日本免费大黄在线观看 | 色的视频网站 | 加勒比视频网站 | 国产成人精品高清在线 | 国产成人在线播放视频 | 午夜三级国产精品理论三级 | 国模私拍视频在线 | 曰本又色又爽又黄三级视频 | 成人18毛片 | 精品视频一区二区三区 | 乱码精品一区二区三区 | 国产在线啪 | 在线观看黄a | 国产aaa级一级毛片 国产ar高清视频+视频 | 在线视频一区二区三区 | a成人在线| 欧美满足你的丝袜高跟ol | 同性男男肉交短文 | 97久久天天综合色天天综合色hd | 天堂8资源在线官网资源 | 亚洲欧美视频在线 | 欧美成人综合在线 | 日日爽夜夜 |