在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

吳恩達:將引領(lǐng)下一波機器學習技術(shù)”的遷移學習到底好在哪?

電子工程師 ? 來源:未知 ? 作者:工程師李察 ? 2018-10-27 10:27 ? 次閱讀

兩年前,吳恩達在 NIPS 2016 的 Tutorial 上曾說“在監(jiān)督學習之后,遷移學習將引領(lǐng)下一波機器學習技術(shù)商業(yè)化浪潮。”現(xiàn)實中不斷有新場景的出現(xiàn),遷移學習可以幫助我們更好地處理遇到的新場景。遷移學習到底有哪些優(yōu)點,能夠成為現(xiàn)在機器學習算法的新焦點?本文將通過與深度學習進行對比,讓大家在應用層面了解遷移學習的原理及其優(yōu)勢。

前言

深度學習在許多很難用其它方法解決的問題上取得了長足的進步。深度學習的成功歸功于它與傳統(tǒng)的機器學習的幾個關(guān)鍵不同點,這使得它在處理非結(jié)構(gòu)化數(shù)據(jù)的時候能夠大放異彩。如今,深度學習模型可以玩游戲,檢測癌癥,與人類交談,以及駕駛汽車。

但是,使深度學習強大的這幾個不同點同時也使得其成本巨大。你可能聽說過深度學習的成功需要龐大的數(shù)據(jù)量,昂貴的硬件設(shè)施,甚至更加昂貴的精英工程人才。現(xiàn)在,一些公司開始對那些可以減少成本的創(chuàng)新想法和技術(shù)特別興奮。比如多任務(wù)學習(Multi-task learning),這是一種可以讓機器學習模型一次性從多個任務(wù)中進行學習的方法。這種方法的其中一種好處就是,可以減少對訓練數(shù)據(jù)量的需求。

在這篇文章中,我們將會介紹遷移學習(transfer learning),一種可以讓知識從一個任務(wù)遷移到另一個任務(wù)中的機器學習方法。遷移學習不需要為你的問題重新開發(fā)一個完全定制的解決方案,而是允許你從相關(guān)問題中遷移知識,以幫助你更輕松地解決您的自定義問題。通過遷移知識,你可以利用用于獲取這些知識所需的昂貴資源,包括訓練數(shù)據(jù),硬件設(shè)備,研究人員,而這些成本并不需要你來承擔。下面讓我們看看遷移學習何時以及是怎樣起作用的。

深度學習與傳統(tǒng)機器學習的不同點

遷移學習并不是一項新技術(shù),它也不是專門為深度學習服務(wù)的,但是鑒于最近在深度學習方面取得的進展,它很令人興奮。所以首先,我們需要闡明深度學習究竟和傳統(tǒng)的機器學習在哪些方面有所不同。

深度學習進行底層抽象

機器學習是機器自動學習把預測值或者標簽分配給數(shù)值型輸入(即數(shù)據(jù))的一種方式。這里的難點是,如何確切地確定這個函數(shù),使得其對于給定輸入可以生成輸出。不對函數(shù)添加任何限制條件的話,其可能性(復雜性)是無窮無盡的。為了簡化這個任務(wù),根據(jù)我們正在解決的問題的類型,相關(guān)領(lǐng)域的專業(yè)知識,或者簡單的試錯方法,我們通常會在函數(shù)上強加某種類型的結(jié)構(gòu)。一種結(jié)構(gòu)定義了某一類型的機器學習模型。

理論上,有無限種可能的結(jié)構(gòu)可供選擇,但在實踐中,大多數(shù)機器學習用例可以通過應用少數(shù)幾種結(jié)構(gòu)中的其中一種來解決:線性模型,樹的組合分類器,和支持向量機是其中的核心。數(shù)據(jù)科學家的工作就是從這一小組可能的結(jié)構(gòu)中選擇正確的結(jié)構(gòu)。這些模型作為黑盒對象,可以從許多成熟的機器學習庫中獲得,并且只需幾行代碼即可訓練。舉個例子,你可以用 Python 的 scikit-learn 庫像以下這樣訓練一個隨機森林模型:

或者用 R 來訓練一個線性回歸模型:

與此不同的是,深度學習在更加底層運行。深度學習不是從一小組的模型結(jié)構(gòu)中進行選擇,而是允許開發(fā)人員組成任意結(jié)構(gòu)。構(gòu)建塊是一些模塊或者層,可以將其想象成基本的基礎(chǔ)數(shù)據(jù)轉(zhuǎn)換。這意味著當我們應用深度學習時,我們需要打開黑盒子了解數(shù)據(jù)轉(zhuǎn)換,而不是把它當做被算法固定的一堆參數(shù)。

這種做法使得我們可以構(gòu)建更加強大的模型,但是同時它也給整個模型構(gòu)建過程添加了一種全新的挑戰(zhàn)。盡管深度學習社區(qū)已經(jīng)發(fā)表了大量研究,到處都有實用的深度學習指南,或者一些經(jīng)驗之談,如何有效地組合這些數(shù)據(jù)轉(zhuǎn)換依然是一個很困難的過程。

下面我們考慮一個極其簡單的卷積神經(jīng)網(wǎng)絡(luò)圖像分類器,這里是用一個流行的深度學習庫 PyTorch 來進行定義的。

因為我們使用的是底層的構(gòu)建塊,我們可以輕松改變模型的某個單一部件(例如,將F.relu變?yōu)镕.sigmoid)。這樣做可以得到一個全新的模型架構(gòu),它可能會產(chǎn)生截然不同的結(jié)果,而且它的可能性,毫不夸張地說,是無止境的。

深度學習還沒有被充分地理解

即使給定了一個固定的神經(jīng)網(wǎng)絡(luò)架構(gòu),訓練它也是眾所周知的極其困難。首先,深度學習的損失函數(shù)通常不是凸函數(shù),這意味著訓練并不一定產(chǎn)生最優(yōu)的可能解。第二,深度學習現(xiàn)在還是非常新的技術(shù),它的許多組成部分仍未被充分理解。舉個例子,批標準化(Batch Normalization)最近備受關(guān)注,因為似乎將其包含在某些模型中是取得良好結(jié)果的關(guān)鍵,但是專家無法就其原因達成一致。研究人員 Ali Rahimi 最近在一場機器學習會議上甚至把深度學習與煉金術(shù)相提并論,引發(fā)了一場論戰(zhàn)。

自動特征工程

深度學習的復雜性促進了一門叫表示學習(representation learning)的技術(shù)的發(fā)展,這也是為什么經(jīng)常有人說神經(jīng)網(wǎng)絡(luò)做的是“自動特征工程”。簡單來說就是,我們不是讓人類來手動從數(shù)據(jù)集中提取有效特征,而是構(gòu)建一個模型,讓模型可以自己學習對于當前任務(wù)來說哪些是需要的和有用的特征。把特征工程的任務(wù)交給模型來處理非常有效,但是代價是模型需要龐大的數(shù)據(jù)量,也因此需要龐大的計算能力。

你可以做什么?

和其他機器學習方法相比,深度學習太過于復雜,看上去似乎無法將其整合到你的業(yè)務(wù)中。對于那些資源有限的組織機構(gòu)來說,這種感覺更加強烈。

對于那些需要走在前沿的組織機構(gòu)來說,可能的確需要聘請專家和購買專業(yè)的硬件設(shè)施。但是很多情況下這不是必需的。有方法可以讓你不需要進行大量的投資就可以有效地應用深度學習技術(shù)。這里就是遷移學習可以大展拳腳的地方了。

遷移學習可以讓知識從一個機器學習模型遷移到另一個模型上。這些模型可能是對模型結(jié)構(gòu)進行了長年研究、用相當多數(shù)據(jù)集對模型進行訓練、用數(shù)以年計的計算時間對模型進行優(yōu)化而得到的結(jié)果。利用遷移學習,你不需要承擔上面說的任何成本就能獲得這項工作的大部分好處!

什么是遷移學習

大多數(shù)機器學習任務(wù)始于零知識,意思是它的結(jié)構(gòu)和模型的參數(shù)是從隨機猜測開始的。當我們說模型是從頭開始學習的時候,意思也是如此。

隨機猜測開始訓練的一個貓檢測模型。通過它見過的許多不同的貓,該模型從中整合出相同的模式,逐漸學習到貓是什么。

在這種情況下,該模型學習到的所有內(nèi)容都來自于你展示給它的數(shù)據(jù)。但是,這是解決問題的唯一方法嗎?在某些情況下,看上去的確如此。

貓檢測模型在不相關(guān)的應用中,例如欺詐檢測,很有可能沒有什么用處。它只知道如何應付貓的圖片,而不是信用卡交易。

但是在某些情況下,我們似乎可以在不同任務(wù)之間共享信息。

貓檢測模型在相關(guān)任務(wù)中作用很大,例如貓的臉部定位。該檢測器已經(jīng)知道怎么檢測貓胡子,鼻子,以及眼睛,所有這些對于定位貓的臉部都很有用處。

這就是遷移學習的本質(zhì):采用一種模型,學習如何很好地完成某項任務(wù),將其部分或者所有知識遷移到一個相關(guān)的任務(wù)。

想想我們自己的學習經(jīng)驗,就會發(fā)現(xiàn)這其實很有道理:我們經(jīng)常遷移以往習得的技能,這樣可以更快地學習新的技能。舉個例子,學過投擲棒球的人不需要重新學習拋東西的機制就能很好地學習到怎么扔一個足球。這些任務(wù)本質(zhì)上是相通的,能夠處理其中一件任務(wù)的話自然而然可以把學習到的能力遷移到另一項任務(wù)。

在機器學習領(lǐng)域,可能過去 5 年最好的例子就是計算機視覺領(lǐng)域。現(xiàn)在幾乎沒人會從頭開始訓練一個圖像模型。相反,我們會從一個預訓練好的模型開始,這個模型已經(jīng)知道怎么區(qū)分一些簡單的對象,例如貓,狗,還有雨傘。學習區(qū)分圖像的模型首先學習如何檢測一些通用圖像特征,例如邊緣,形狀,文本,以及臉部。預訓練模型具有以上這些的基本技能(還有更加具體的技能,例如區(qū)分狗和貓的能力)。

此時,預訓練的分類模型可以通過添加層或者在一個新的數(shù)據(jù)集上重新訓練,來繼承那些花費巨大而獲得的基本技能,然后將其延伸到新的任務(wù)。這就是遷移學習。

這種方法的好處很明顯。

遷移學習訓練數(shù)據(jù)量需求量更小

當你在一個與貓相關(guān)的新任務(wù)中重復使用你最喜愛的貓檢測模型時,你的模型已經(jīng)擁有了“一百萬只貓的智慧”,這意味著你不需要再使用那么多的貓圖片來訓練新任務(wù)了。減少訓練數(shù)據(jù)量可以讓你在只有很少數(shù)據(jù),或者要獲得更多數(shù)據(jù)的成本過高或者不可能獲得更多數(shù)據(jù)的情況下也能訓練,同時可以讓你在比較廉價的硬件設(shè)施上更快地訓練模型。

遷移學習訓練模型泛化能力更強

遷移學習可以改進模型的泛化能力,或者說增強其在非訓練數(shù)據(jù)上分類良好的能力。這是因為在訓練預訓練模型時,是有目的性地讓模型可以學習到對相關(guān)任務(wù)都很有用的通用特征。當模型遷移到一個新任務(wù)時,它將很難過擬合新的訓練數(shù)據(jù),因為它將僅從一個很一般的知識庫中繼續(xù)學習而已。構(gòu)建一個泛化能力強的模型是機器學習中最難以及最重要的部分之一。

遷移學習訓練過程更加魯棒

從一個預訓練的模型開始,也可以避免訓練一個帶有數(shù)百萬參數(shù)的復雜模型,這個過程非常令人沮喪,非常不穩(wěn)定,而且令人困惑。遷移學習可以將可訓練參數(shù)的數(shù)量減少多達 100%,使得訓練更穩(wěn)定,而且更容易調(diào)試。

遷移學習降低深度學習的入門門檻

最后,遷移學習降低深度學習的門檻,因為你不需要成為專家就能獲得專家級的結(jié)果。舉例來說,流行的圖像分類模型 Resnet-50,這個特定的結(jié)構(gòu)是怎么選擇的呢?這是許多深度學習專家的多年研究和實驗的結(jié)果。這個復雜的結(jié)構(gòu)中包含有 2500 萬個權(quán)重,如果沒有對這個模型中各個部件的深入了解,從頭優(yōu)化這些權(quán)重可以說是幾乎不可能的任務(wù)。幸運的是,有了遷移學習,你可以重用這個復雜的結(jié)構(gòu),以及這些優(yōu)化過的權(quán)重,因此顯著降低了深度學習的入門門檻。

多任務(wù)學習又是什么?

遷移學習是用于訓練機器學習模型的知識共享技術(shù)的其中一種,已被證明是非常有效的。目前,知識共享技術(shù)中最有趣的兩種就是遷移學習和多任務(wù)學習。在遷移學習中,模型首先在單個任務(wù)中進行訓練,然后可以用于相關(guān)任務(wù)的起始點。在學習相關(guān)任務(wù)時,原始的被遷移模型會學習如何專門處理新的任務(wù),而不需要擔心會不會影響其在原來任務(wù)上的效果。而在多任務(wù)學習中,單個模型一次性學習處理多個任務(wù),對模型的性能評估則取決于它學習之后能夠多好地完成這些任務(wù)。后續(xù)我們也會分析討論更過有關(guān)多任務(wù)學習的好處以及其何時能起作用。

結(jié)論

遷移學習是一項知識共享技術(shù),其可以減少構(gòu)建深度學習模型時對訓練數(shù)據(jù)量,計算能力,以及工程人才的依賴。由于深度學習可以提供與傳統(tǒng)機器學習相比的顯著改進,遷移學習成為一項必不可少的工具。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3452

    瀏覽量

    49728
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8476

    瀏覽量

    133756
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5540

    瀏覽量

    122222

原文標題:吳恩達說“將引領(lǐng)下一波機器學習技術(shù)”的遷移學習到底好在哪?

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    機器學習模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發(fā)廣闊。下面,AI部落小編探討機器學習模型市場
    的頭像 發(fā)表于 02-13 09:39 ?212次閱讀

    嵌入式機器學習的應用特性與軟件開發(fā)環(huán)境

    作者:DigiKey Editor 在許多嵌入式系統(tǒng)中,必須采用嵌入式機器學習(Embedded Machine Learning)技術(shù),這是指
    的頭像 發(fā)表于 01-25 17:05 ?440次閱讀
    嵌入式<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的應用特性與軟件開發(fā)環(huán)境

    傳統(tǒng)機器學習方法和應用指導

    在上篇文章中,我們介紹了機器學習的關(guān)鍵概念術(shù)語。在本文中,我們會介紹傳統(tǒng)機器學習的基礎(chǔ)知識和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?833次閱讀
    傳統(tǒng)<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法和應用指導

    什么是機器學習?通過機器學習方法能解決哪些問題?

    計算機系統(tǒng)自身的性能”。事實上,由于“經(jīng)驗”在計算機系統(tǒng)中主要以數(shù)據(jù)的形式存在,因此機器學習需要設(shè)法對數(shù)據(jù)進行分析學習,這就使得它逐漸成為智能數(shù)據(jù)分析技術(shù)的創(chuàng)新源之
    的頭像 發(fā)表于 11-16 01:07 ?705次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學習</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學習</b>方法能解決哪些問題?

    NPU與機器學習算法的關(guān)系

    在人工智能領(lǐng)域,機器學習算法是實現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復雜度的提升,對計算資源的需求也在不斷增長。NPU作為種專門為深度學習
    的頭像 發(fā)表于 11-15 09:19 ?948次閱讀

    人工智能、機器學習和深度學習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中個很大的子集是機器學習——讓算法從數(shù)據(jù)中學習
    發(fā)表于 10-24 17:22 ?2649次閱讀
    人工智能、<b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>存在什么區(qū)別

    下一機器技術(shù):工業(yè)自動化的五大趨勢

    隨著人工智能(AI)技術(shù)的迅猛發(fā)展和全球制造業(yè)的轉(zhuǎn)型升級,下一機器技術(shù)正在引領(lǐng)工業(yè)自動化領(lǐng)域的新
    的頭像 發(fā)表于 10-23 15:52 ?1026次閱讀

    【《時間序列與機器學習》閱讀體驗】+ 時間序列的信息提取

    之前對《時間序列與機器學習書進行了整體瀏覽,并且非常輕松愉快的完成了第章的學習,今天開始學習
    發(fā)表于 08-14 18:00

    預訓練和遷移學習的區(qū)別和聯(lián)系

    預訓練和遷移學習是深度學習機器學習領(lǐng)域中的兩個重要概念,它們在提高模型性能、減少訓練時間和降低對數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定
    的頭像 發(fā)表于 07-11 10:12 ?1683次閱讀

    深度學習與nlp的區(qū)別在哪

    深度學習和自然語言處理(NLP)是計算機科學領(lǐng)域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文介紹深度學習與NLP的區(qū)別。 深度學習簡介 深度
    的頭像 發(fā)表于 07-05 09:47 ?1342次閱讀

    遷移學習的基本概念和實現(xiàn)方法

    遷移學習(Transfer Learning)是機器學習領(lǐng)域中的個重要概念,其核心思想是利用在
    的頭像 發(fā)表于 07-04 17:30 ?2704次閱讀

    機器學習算法原理詳解

    機器學習作為人工智能的個重要分支,其目標是通過讓計算機自動從數(shù)據(jù)中學習并改進其性能,而無需進行明確的編程。本文深入解讀幾種常見的
    的頭像 發(fā)表于 07-02 11:25 ?1919次閱讀

    深度學習與傳統(tǒng)機器學習的對比

    在人工智能的浪潮中,機器學習和深度學習無疑是兩大核心驅(qū)動力。它們各自以其獨特的方式推動著技術(shù)的進步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于
    的頭像 發(fā)表于 07-01 11:40 ?1941次閱讀

    SnapAI和機器學習引入Snapchat

    Snap首席執(zhí)行官伊萬·斯皮格近日宣布,公司加大投資力度,人工智能和機器學習技術(shù)深度引入其主打社交應用Snapchat,以進
    的頭像 發(fā)表于 05-21 09:31 ?611次閱讀

    深入探討機器學習的可視化技術(shù)

    機器學習可視化(簡稱ML可視化)般是指通過圖形或交互方式表示機器學習模型、數(shù)據(jù)及其關(guān)系的過程。目標是使理解模型的復雜算法和數(shù)據(jù)模式更容易,
    發(fā)表于 04-25 11:17 ?567次閱讀
    深入探討<b class='flag-5'>機器</b><b class='flag-5'>學習</b>的可視化<b class='flag-5'>技術(shù)</b>
    主站蜘蛛池模板: 天天摸天天做天天爽天天弄 | 国产亚洲视频在线播放大全 | 日日干狠狠干 | 欧美黄页| 99久久免费精品国产免费高清 | 唐人社电亚洲一区二区三区 | 5151四虎永久在线精品免费 | 免费 视频 1级 | 四虎影院永久 | 最新精品 | 性配久久久| 欧美刺激午夜性久久久久久久 | a理论片 | 免费爱爱小视频 | 午夜一级免费视频 | 直接在线观看的三级网址 | 久久久噜噜噜 | 狠狠色综合久久婷婷 | 开心丁香婷婷深爱五月 | 在线天堂网www资源种子 | 夜夜穞狠狠穞 | 婷婷欧美 | 久久精品国产精品亚洲婷婷 | 国产卡1卡2卡三卡网站免费 | 中国胖女人一级毛片aaaaa | 一级一级女人18毛片 | 婷婷色九月 | 午夜看大片 | 久久婷婷成人综合色 | 天天爽夜夜爽 | 美人岛福利 | 成年网站在线在免费播放 | 免费观看视频在线 | 高清xxx| 欧美黄色片在线观看 | 三级网站在线播放 | 一级做a爱过程免费视 | 91亚色视频在线观看 | videossexotv极度另类高清 | 五月婷婷中文字幕 | 国产专区视频 |