在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能 | 深度學(xué)習(xí)涉足美妝領(lǐng)域,網(wǎng)紅博主要失業(yè)?

電子工程師 ? 來源:YXQ ? 2019-05-27 17:22 ? 次閱讀

場景描述:風(fēng)靡各大直播平臺的美妝博主,憑借高超的化妝技術(shù)吸金無數(shù)。而人工智能也已經(jīng)開始學(xué)習(xí)這一本領(lǐng)。利用深度學(xué)習(xí)計算機視覺技術(shù),僅僅根據(jù)人的眼睛特征,就能給出適合用戶的美妝搭配。

關(guān)鍵詞:幾何變換 triplet 損失函數(shù) 遷移學(xué)習(xí)

近年來,網(wǎng)絡(luò)上涌現(xiàn)出越來越多的美妝博主,他們講解美妝技巧,分享化妝品試用效果,以此積累粉絲,與商家合作銷售產(chǎn)品。

比如,前段時間大火的李佳琦,被稱為「口紅魔鬼」的美妝博主。他曾瘋狂地在一次直播中一口氣試了380 種口紅色號,并創(chuàng)下一分鐘內(nèi)售出14,000 支口紅的紀(jì)錄。

然而,很多愛化妝的妹子應(yīng)該早有領(lǐng)悟,明明買了和博主一模一樣的口紅,可畫出來效果卻不一樣??吹健咐罴宴箓冊囉玫纳柡苊篮芟珊苜F氣,可到了自己嘴上怎么就……

口紅界的「賣家秀」和「買家秀」

沒錯,正是因為每個人的臉型、膚色、唇形等等都不一樣,才導(dǎo)致了「賣家秀」和「買家秀」的結(jié)果。

那么問題來了,怎樣才能知道最適合自己的美妝產(chǎn)品是哪款呢?一個叫做 Mira 的公司給出的答案是:用深度學(xué)習(xí)。

深度學(xué)習(xí)也愛美妝

許多人印象中,人工智能、深度學(xué)習(xí)這些名詞和美妝應(yīng)該八竿子打不著關(guān)系,但位于美國洛杉磯的創(chuàng)企 Mira 可不這么想。

這家公司決定用人工智能技術(shù)幫助廣大愛美女士,比如獲取化妝靈感,購買合適的美妝產(chǎn)品等。

美妝前后,效果堪比換臉

在隨機和數(shù)十位美妝人士詳聊后,Mira 團隊了解到,目前女性消費者在尋找合適的化妝產(chǎn)品和美妝方法時,遇到的最大困難是,沒有權(quán)威且可信的聲音能針對她們個人的美容需求做出指導(dǎo)。

在本文我們就聊聊 Mira 的技術(shù)團隊如何用深度學(xué)習(xí)和計算機視覺技術(shù)發(fā)現(xiàn)切中這個問題要害的實例:找到講解人類具體眼型和面部膚色的美妝大咖、圖片和視頻等信息。

沿著這種方式, Mira 團隊借助三個簡單但強大的知識——幾何變換、triplet 損失函數(shù)和遷移學(xué)習(xí),只用最小限度的人類輸入數(shù)據(jù)就能解決種種困難的美妝推斷問題。

AI 幫你選擇最合適的眼妝

眼部分類示意圖

愛化妝的女士都知道,找到適合自己眼睛的美妝產(chǎn)品和方法是很困難的——每個人的眼型和面部膚色都不一樣。

即便是同一種眼妝(比如煙熏妝),根據(jù)眼型不同,所用的化妝方法也大不相同。

雖然像 Birchbox 等推出了一些有用的化妝指南,但 Mira 團隊經(jīng)過調(diào)查發(fā)現(xiàn),美妝愛好者們通常還是喜歡聽聽專業(yè)且可信的建議,尤其是和自己眼型相似的人的化妝建議,她們對這些建議的重視程度甚至都超過了美容專家的意見。

利用人工智能技術(shù),現(xiàn)在我們根據(jù)自己的眼部特征,以及自己其它獨特的面部特征,就能讓自己知道怎么化妝、買什么化妝品。

AI 美妝第一步:尋找相似性

我們把問題形式化一下:根據(jù)一組面部照片,以及少許數(shù)量的人工標(biāo)記的照片(標(biāo)記了眼睛顏色、眼瞼形狀等),找到兩個眼睛之間的視覺相似性度量(《紅樓夢》中「這個妹妹我曾見過的」就是這個意思)。然后用分類器捕捉人工標(biāo)記的屬性。

本文先重點講解如何確定眼睛之間的相似度,后面會詳細解釋如何進行分類任務(wù)。

原始圖像并不是很適合計算視覺相似性或者進行分類任務(wù)。因為它們包含的很多相似性都是表面上的(比如畫的妝很相似,由于強光才造成膚色看起來不同)。

而這些和人物真正的眼部結(jié)構(gòu)及面部膚色并沒有關(guān)系。而且,原始圖像一般都處于高維空間,這就需要大量的有標(biāo)記訓(xùn)練數(shù)據(jù)用于分類任務(wù)。

如上圖,如果僅直接比較圖像像素,人物的眼睛都高度相似,但仔細注意會發(fā)現(xiàn),雖然人物的眼影、光線和視線方向一致,但她們的眼睛顏色和面部膚色卻各不相同。

處理原始圖像的困難所在:雖然上圖兩人的眼睛大不相同,但初始數(shù)據(jù)比較起來卻很相似

那么 Mira 的首要任務(wù)就是:要獲得眼部照片的低維和密集的數(shù)學(xué)表達形式,也就是我們所說的嵌套」(embeddings)。

它只會捕捉任務(wù)所需的圖像品質(zhì)(嵌套是一種分類特征,以連續(xù)值特征表示。通常,嵌套是指將高維度向量映射到低維度的空間。)這樣一來,「嵌套」應(yīng)當(dāng)忽略這些信息:

眼睛姿勢/視線方向

具體的光線狀況(當(dāng)然還有強大的濾鏡這些)

不管是臉部畫了什么樣的妝

當(dāng)用三重函數(shù)訓(xùn)練眼睛嵌入時,系統(tǒng)學(xué)會了忽略不相關(guān)特征

AI 美妝第二步:投影變換進行圖像歸一化

我們可以通過一個簡單的預(yù)處理步驟——投影變化刪除一整個類別的表面相似性。

雖然裁減過的眼部照片會出現(xiàn)很多明顯的結(jié)構(gòu)性差異(比如眼睛不在照片中心,或者由于頭部傾斜的原因出現(xiàn)旋轉(zhuǎn)等),但投影變化能讓我們「扭曲」片,這樣就能保證相同的眼部標(biāo)志處于相同的坐標(biāo)。

借助一丁點的線性代數(shù)原理,我們就可以將一張圖像「扭曲」,這樣一組點會映射為一個新的理想的形狀。旋轉(zhuǎn)和拉伸圖像的過程如下所示:

使用投影變化,可以將上面的圖像進行扭曲處理,上圖中的 4 個紅點會組成一個矩形,從而將紅點圍住的文本「拉直」。Mira 團隊在將眼部照片進行正常化處理時,應(yīng)用了同樣的方法。

研究人員接用 dlib 檢測出臉部標(biāo)記(如果你對 dlib 感興趣,可以在以下鏈接中了解:http://blog.dlib.net/2014/08/real-time-face-pose-estimation.html)。

剪裁照片中的眼部部位,將其「扭曲」處理,確保它們對齊和一致。這步操作能讓他們專注于讓「嵌套」不受人物頭部姿勢和傾斜角度的影響。

接著進行圖像歸一化:檢測出面部標(biāo)志,剪裁眼部圖像,然后用投影轉(zhuǎn)換將眼部圖像「扭曲」至標(biāo)準(zhǔn)位置。

圖像預(yù)處理流程中的圖像樣本

AI 美妝第三步:用 triplet 損失函數(shù)進行表示學(xué)習(xí)

「扭曲」處理后的圖像進行直接比較時,仍會表現(xiàn)出一些表面相似性,包括視線方向和相似的化妝等。深度學(xué)習(xí)技術(shù)就是解決這個問題的藥方。

研究人員訓(xùn)練了一個卷積神經(jīng)網(wǎng)絡(luò),用眼部照片輸入它后會輸出向量,相比不同人之間,同一個人眼部照片輸出的向量更具相似性。神經(jīng)網(wǎng)絡(luò)會學(xué)習(xí)輸出每個人眼在不同環(huán)境下的穩(wěn)定持續(xù)的表示形式。

當(dāng)然,這里所以靠的正是前面所說的triplet 損失函數(shù),其公式如下所示:

這詳細說明了當(dāng)函數(shù)將具體個體(錨點和正樣本)的兩個「嵌套」放置的位置比錨點和無關(guān)個體(負樣本)的位置更近時,模型的損失和優(yōu)化目標(biāo)會遞減。

模型架構(gòu)示意圖

當(dāng)研究人員將眼部照片應(yīng)用到模型中時,他們發(fā)現(xiàn)生成的「嵌套」很好地指出了具有相似眼部結(jié)構(gòu)和面部膚色的兩張照片。

眼部嵌套相似的照片示例

這里所用的方法其實和谷歌的FaceNet 很像,也就是通過對照片進行「扭曲」和一致性處理,應(yīng)用 triplet 損失函數(shù),生成臉部級別的圖像嵌套。

AI 美妝第四步:合并嵌套

研究人員對生成的嵌套進行了簡單調(diào)試,讓其同樣適用于支持人級(Person-level)的眼部表示——提取出每個幀的全部噪聲數(shù)據(jù)。

通過使用上面神經(jīng)網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,研究人員又采用了新的損失函數(shù),該函數(shù)將多組嵌套的平均值放在極為相近的位置(相對于無關(guān)個體),如下所示:

使用先前神經(jīng)網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,研究人員可以讓網(wǎng)絡(luò)能夠以求平均值的方式將眼部嵌套合并在一起,能看到模型快速收斂。這個過程就是常說的遷移學(xué)習(xí)。

遷移學(xué)習(xí)讓嵌套能夠合并為一個個體眼睛的更為整體的表示。雖然此時神經(jīng)網(wǎng)絡(luò)架構(gòu)非常復(fù)雜了,但模型由于采用了遷移學(xué)習(xí)的原因能夠快速收斂。

最終,研究人員用數(shù)據(jù)集對模型進行了驗證,發(fā)現(xiàn)模型生成的嵌套能夠捕捉個體之間的很細微的相似性,如下所示:

每一行人物的眼部嵌套之間非常相似

看你一眼,就給出完美妝容建議

通過獲得單張照片中人眼的高質(zhì)量數(shù)學(xué)表示,研究人員就能找出人物眼睛構(gòu)造的相似性,這就為只根據(jù)人的眼睛,為他/她匹配合適的眼妝風(fēng)格打下了基礎(chǔ)。

Mira 技術(shù)團隊表示接下來的任務(wù)是應(yīng)用幾種監(jiān)督式學(xué)習(xí)方法(分類眼型、回歸眼睛顏色等),以及一些分析方法,搭建出能為人們提供化妝建議的 AI 模型。

也就是說,未來,妹子們不必再發(fā)愁畫什么樣的妝最適合自己的眼睛和膚色了,更不必機械地參考標(biāo)準(zhǔn)化妝指南和美妝博主試色效果,AI 會為你推薦更適合你自己的美妝術(shù)。

如此一來,美妝博主們恐怕要被搶飯碗了?不過,李佳琦也不用再那么辛苦地,在一次直播中試色 380 次了。

注:本文所有代碼和結(jié)果的實現(xiàn)用到了 NumPy,SciPy,Matplotlib,Chainer,dlib 和 SqueezeNet 架構(gòu)。

超神經(jīng)百科

遷移學(xué)習(xí)

遷移學(xué)習(xí)是一種機器學(xué)習(xí)方法,就是把為任務(wù) A 開發(fā)的模型作為初始點,重新使用在為任務(wù) B 開發(fā)模型的過程中。

深度學(xué)習(xí)中,在計算機視覺任務(wù)和自然語言處理任務(wù)中,將預(yù)訓(xùn)練的模型作為新模型的起點是一種常用的方法,通常這些預(yù)訓(xùn)練的模型在開發(fā)神經(jīng)網(wǎng)絡(luò)的時候已經(jīng)消耗了巨大的時間資源和計算資源,遷移學(xué)習(xí)可以將已習(xí)得的強大技能遷移到相關(guān)的的問題上。

以下是兩個常用的方法:

1. 開發(fā)模型的方法

2. 預(yù)訓(xùn)練模型的方法

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48791

    瀏覽量

    247053
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5555

    瀏覽量

    122541

原文標(biāo)題:深度學(xué)習(xí)涉足美妝領(lǐng)域,網(wǎng)紅博主要失業(yè)?

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    軍事應(yīng)用中深度學(xué)習(xí)的挑戰(zhàn)與機遇

    ,并廣泛介紹了深度學(xué)習(xí)在兩個主要軍事應(yīng)用領(lǐng)域的應(yīng)用:情報行動和自主平臺。最后,討論了相關(guān)的威脅、機遇、技術(shù)和實際困難。主要發(fā)現(xiàn)是,
    的頭像 發(fā)表于 02-14 11:15 ?471次閱讀

    人工智能和機器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    人工智能相關(guān)各種技術(shù)的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能和機器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù) 人工智能
    的頭像 發(fā)表于 01-25 17:37 ?849次閱讀
    <b class='flag-5'>人工智能</b>和機器<b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的概念與應(yīng)用

    嵌入式和人工智能究竟是什么關(guān)系?

    、連接主義和深度學(xué)習(xí)等不同的階段。目前,人工智能已經(jīng)廣泛應(yīng)用于各種領(lǐng)域,如自然語言處理、計算機視覺、智能推薦等。 嵌入式系統(tǒng)和
    發(fā)表于 11-14 16:39

    人工智能、機器學(xué)習(xí)深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)。
    發(fā)表于 10-24 17:22 ?2801次閱讀
    <b class='flag-5'>人工智能</b>、機器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    幸得一好書,特此來分享。感謝平臺,感謝作者。受益匪淺。 在閱讀《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》的第6章后,我深刻感受到人工智能在能源科學(xué)領(lǐng)域中的巨大潛力和廣泛應(yīng)用。這一章詳細
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第4章關(guān)于AI與生命科學(xué)的部分,為我們揭示了人工智能技術(shù)在生命科學(xué)領(lǐng)域中的廣泛應(yīng)用和深遠影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,無疑為讀者鋪設(shè)了一條探索人工智能(AI)如何深刻影響并推動科學(xué)創(chuàng)新的道路。在閱讀這一章后,我深刻感受到了人工智能技術(shù)在科學(xué)領(lǐng)域的廣泛應(yīng)用潛力以及其帶來的革命性變化,以下是我個人的學(xué)習(xí)
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    RISC-V在人工智能圖像處理領(lǐng)域的應(yīng)用前景十分廣闊,這主要得益于其開源性、靈活性和低功耗等特點。以下是對RISC-V在人工智能圖像處理應(yīng)用前景的詳細分析: 一、RISC-V的基本特點
    發(fā)表于 09-28 11:00

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領(lǐng)域應(yīng)用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結(jié)經(jīng)驗,擬按照要求準(zhǔn)備相關(guān)體會材料。看能否有助于入門和提高ss
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    活的世界? 編輯推薦 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》聚焦于人工智能與材料科學(xué)、生命科學(xué)、電子科學(xué)、能源科學(xué)、環(huán)境科學(xué)五大領(lǐng)域的交叉融合,通過深入淺出的語言和諸多實際應(yīng)用案例,介紹了
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產(chǎn)業(yè)博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領(lǐng)域
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加
    發(fā)表于 07-29 17:05

    人工智能大模型在工業(yè)網(wǎng)絡(luò)安全領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,人工智能大模型作為一種具有強大數(shù)據(jù)處理能力和復(fù)雜模式識別能力的深度學(xué)習(xí)模型,已經(jīng)在多個領(lǐng)域展現(xiàn)了其獨特的優(yōu)勢和廣
    的頭像 發(fā)表于 07-10 14:07 ?1586次閱讀

    人工智能、機器學(xué)習(xí)深度學(xué)習(xí)是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機器學(xué)習(xí)(Machine Learning, ML)和深度學(xué)習(xí)(Deep Learning,
    的頭像 發(fā)表于 07-03 18:22 ?2581次閱讀

    人工智能深度學(xué)習(xí)的五大模型及其應(yīng)用領(lǐng)域

    隨著科技的飛速發(fā)展,人工智能(AI)技術(shù)特別是深度學(xué)習(xí)在各個領(lǐng)域展現(xiàn)出了強大的潛力和廣泛的應(yīng)用價值。深度
    的頭像 發(fā)表于 07-03 18:20 ?6462次閱讀
    主站蜘蛛池模板: 婷婷激情五月综合 | 中文字幕三级久久久久久 | 1024你懂的国产欧美日韩在 | 久久久伊香蕉网站 | 赛罗奥特曼银河帝国普通话免费版 | 天天干夜夜操 | 亚洲精品久久婷婷爱久久婷婷 | 99亚洲精品卡2卡三卡4卡2卡 | 老色99久久九九精品尤物 | 最新在线视频 | 最刺激黄a大片免费观看下截 | 午夜宅男在线视频 | 国产在线视频www色 国产在线视频欧美亚综合 国产在线视频网站 | 国产成人毛片毛片久久网 | 天天夜约 | 井野雏田小樱天天被调教 | 综合第一页 | 亚洲 欧美 丝袜 制服 在线 | 爱爱小说视频永久免费网站 | 日本一区二区三区四区在线观看 | 欧美成年性色mmm | 中文字幕88页 | 久久成人网18网站 | 欧美三级大片在线观看 | 种子在线搜索 | 香蕉黄色网 | 国产精品久久久久久久久 | 毛片在线播放网址 | 天天碰天天 | 欧洲精品不卡1卡2卡三卡四卡 | 婷婷日日夜夜 | 日本a级特黄三级三级三级 日本边添边爱边摸边做边爱 | 久久精品国产大片免费观看 | 高清国产一区二区三区 | 高清一区二区三区 | 国产精品一一在线观看 | 99久久99久久 | 国产亚洲美女精品久久久2020 | 精品免费视在线视频观看 | 四虎久久影院 | 黄色免费小视频 |