在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AutoML是一個基于谷歌在圖像識別領(lǐng)域的最新研究成果

nlfO_thejiangme ? 來源:未知 ? 作者:李倩 ? 2018-06-08 16:35 ? 次閱讀

谷歌AutoML是一個基于谷歌在圖像識別領(lǐng)域的最新研究成果——神經(jīng)架構(gòu)搜索(Neural Architecture Search,NAS )開發(fā)而成的機器學(xué)習(xí)云軟件工具包。NAS作為算法,面對給定的特定數(shù)據(jù)集,它會搜索最合適的神經(jīng)網(wǎng)絡(luò)來對該數(shù)據(jù)集執(zhí)行特定任務(wù)。

AutoML是一套實現(xiàn)機器學(xué)習(xí)的工具,可以輕松地訓(xùn)練高性能的深層網(wǎng)絡(luò),而不需要用戶掌握任何深層學(xué)習(xí)或人工智能知識,你要做的所有事只是給數(shù)據(jù)貼上標(biāo)簽。Google將使用NAS為你的特定數(shù)據(jù)集和任務(wù)找到最佳神經(jīng)網(wǎng)絡(luò),這種方法比人類手動設(shè)計神經(jīng)網(wǎng)絡(luò)表現(xiàn)的更加出色。

它具有可以提供個性化的機器學(xué)習(xí)模型,用戶需要做的就是提供你需要訓(xùn)練的數(shù)據(jù)。在圖形化的界面下整個流程十分容易上手,完全改變了過去復(fù)雜的研究過程。同時所有的機器學(xué)習(xí)技術(shù)都是最先進(jìn)的,你可以在這里用最棒的技術(shù)訓(xùn)練出先進(jìn)的算法。

AutoML完全改變了整個機器學(xué)習(xí)的游戲規(guī)則,面對許多應(yīng)用程序APP,不再需要專門的技能和知識。許多公司只需要選擇合適的深度網(wǎng)絡(luò)來完成更簡單的任務(wù),例如圖像分類、語音識別和文本處理。屆時他們不再需要雇傭5個機器學(xué)習(xí)博士,而只要雇傭一個能夠操作鼠標(biāo)和組織數(shù)據(jù)的人。

目前只有很少的一部分企業(yè)擁有研究和部署機器學(xué)習(xí)和人工智能業(yè)務(wù)的能力。只有很有限的一部分人能夠創(chuàng)造先進(jìn)的機器學(xué)習(xí)模型。即使是一家已經(jīng)開始涉足人工智能的公司,依舊需要大量的努力來建立時間緊迫過程復(fù)雜的定制化機器學(xué)習(xí)需求。雖然市面上有很多包含預(yù)處理模型的API提供,但將AI帶給每一個人還有很長的路要走。

但AutoML彌補了人工智能在應(yīng)用上的不足和技術(shù)的限制,并使更多的企業(yè)更好的利用AI并從中受益。它可以幫助經(jīng)驗有限的公司利用自己的數(shù)據(jù)來通過最為先進(jìn)的機器學(xué)習(xí)技術(shù)來建立定制化的模型。這一技術(shù)不僅可以提高機器學(xué)習(xí)專家的生產(chǎn)力,更幫助缺乏經(jīng)驗的工程師們構(gòu)建出他們夢想中的強大AI系統(tǒng)。

毫無疑問,企業(yè)使用“人工智能”的方式將會發(fā)生巨大轉(zhuǎn)變。但究竟是如何變化的呢?這種變化對誰有利?那些深度機器學(xué)習(xí)領(lǐng)域的人會怎樣呢?這篇文章將詳細(xì)分析Google的AutoML以及軟件2.0帶來的變化,對機器學(xué)習(xí)領(lǐng)域的企業(yè)和開發(fā)人員意味著什么。

AutoML發(fā)展越快,企業(yè)要投入的研發(fā)越少

人工智能領(lǐng)域的許多企業(yè),尤其是初創(chuàng)企業(yè),在深度學(xué)習(xí)的背景下,都在做相對簡單的事情。這些企業(yè)大部分的成果價值來自于它們最終組合出來的產(chǎn)品。例如,大多數(shù)計算機視覺初創(chuàng)公司都在使用某種圖像分類網(wǎng)絡(luò),這實際上將是AutoML在該工具包中的第一個入門工具。事實上,作為當(dāng)前最先進(jìn)的圖像分類網(wǎng)絡(luò),Google的NASNet已經(jīng)在TensorFlow中公開了代碼。現(xiàn)在,企業(yè)可以跳過產(chǎn)品開發(fā)流程中的復(fù)雜的實驗研究步驟,只需把學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)移過來去完成他們設(shè)定的目標(biāo)任務(wù)即可。由于實驗研究減少,因此可以將更多的業(yè)務(wù)資源用于產(chǎn)品設(shè)計、開發(fā)和重要的數(shù)據(jù)處理。

說到這里,下面就要嘮一嘮產(chǎn)品。

產(chǎn)品體驗變得更加重要

由于更多的時間花在產(chǎn)品設(shè)計和開發(fā)上,公司將會加快產(chǎn)品更新?lián)Q代的速度。公司的主要價值將會更多的體現(xiàn)在他們的產(chǎn)品或技術(shù)有多好用方面。產(chǎn)品設(shè)計得夠好嗎?使用夠方便嗎?數(shù)據(jù)流程的設(shè)置方式是否能夠快速輕松地改進(jìn)模型?這些新的問題將是公司優(yōu)化其產(chǎn)品并能夠比競爭對手更快的更新產(chǎn)品的關(guān)鍵所在。尖端研究也將不再是提高技術(shù)性能的主要驅(qū)動力。主要的驅(qū)動力變成了數(shù)據(jù)和資源。數(shù)據(jù)和資源變得至關(guān)重要

如果研究變成公司中不那么重要的一部分,那么一個公司要如何脫穎而出呢?如何在競爭中鶴立雞群呢?當(dāng)然,銷售、市場營銷以及我們剛才討論的產(chǎn)品設(shè)計都非常重要,但是,這些深度學(xué)習(xí)技術(shù)表現(xiàn)的巨大驅(qū)動因素是數(shù)據(jù)和資源。擁有的針對任務(wù)的數(shù)據(jù)越干凈、越多樣化 (兼顧質(zhì)量和數(shù)量),就越能使用諸如AutoML等軟件工具來改進(jìn)模型。這意味著獲取和處理數(shù)據(jù)需要大量資源。所有這些都部分地表明了我們正在脫離編寫大量代碼的繁雜生活。

軟件2.0 : 深度學(xué)習(xí)成為大多數(shù)人工具箱中的另一個工具

使用谷歌AutoML,你要做的就是上傳已經(jīng)標(biāo)簽好的數(shù)據(jù),這樣就萬事俱備了!對于那些對這個領(lǐng)域理解不深需求也不深的人來說,他們只是想借用這種技術(shù)的杠桿力量,來撬動更大的成果。深度學(xué)習(xí)的應(yīng)用APP變得更容易獲得。在工具包中使用更少的編碼,就可獲取更多的使用工具。事實上,對大多數(shù)人來說,深度學(xué)習(xí)只是工具箱中的另一個常規(guī)工具罷了。Andrej Karpathy在sofeware 2.0上寫了一篇很棒的文章,講述了辛苦的碼農(nóng)如何從編寫大量代碼轉(zhuǎn)向更多的進(jìn)行產(chǎn)品設(shè)計和使用工具的,然后讓AI完成其余的工作。

但是,這一切還需要創(chuàng)新科學(xué)和科研。

創(chuàng)新科學(xué)和研究仍有重要的空間

盡管有了這些易于使用的工具,但發(fā)展的進(jìn)程并沒有結(jié)束。就像當(dāng)汽車被發(fā)明出來時,我們也沒有停止繼續(xù)開發(fā)它們,即使現(xiàn)在它們已經(jīng)變得很高級了,我們還在不停的研發(fā)。人工智能還有很多可以提升的空間。比如AI還不夠有創(chuàng)造力,也不會推理,也不能處理復(fù)雜的任務(wù)。它需要海量的標(biāo)記數(shù)據(jù),而獲取這些數(shù)據(jù)耗時又耗錢。訓(xùn)練仍然需要很長時間才能達(dá)到最高精度。深度學(xué)習(xí)模型的性能對于一些簡單的任務(wù)(如分類)是很好使的,但是在本地化等方面只是表現(xiàn)的尚可,有時甚至很差(取決于任務(wù)的復(fù)雜性)。我們甚至都沒能從內(nèi)部深入了解深層網(wǎng)絡(luò)。

所有這些都為科學(xué)和研究提供了施展拳腳的空間,特別是為當(dāng)前人工智能技術(shù)的推進(jìn)提供了機會。在商業(yè)方面,一些公司,尤其是科技巨頭(如谷歌、微軟、Facebook、蘋果、亞馬遜)需要通過科學(xué)和研究去創(chuàng)新現(xiàn)有的工具來和其他公司競爭。這些公司確實都可以獲得大量的數(shù)據(jù)和資源,設(shè)計出出色的產(chǎn)品,進(jìn)行大規(guī)模的銷售和營銷等,他們確實可以利用這些資源使自己在這場競爭中木秀于林,而這些競爭優(yōu)勢也可以來自于尖端的創(chuàng)新。

然后還留下最后一個問題~

Good or Bad

總的來說,創(chuàng)造人工智能技術(shù)的這種轉(zhuǎn)變是一件好事。大多數(shù)企業(yè)將利用現(xiàn)有的機器學(xué)習(xí)工具,而不是去創(chuàng)建新的工具,因為也確實沒必要這樣做。接近尖端的人工智能對許多人來說不再高不可攀,這意味著對所有人來說這都是一項更好的技術(shù)。人工智能也是一個相當(dāng)“開放”的領(lǐng)域,例如Andrew Ng這樣的行業(yè)內(nèi)的大咖創(chuàng)造了非常受歡迎的課程來教授人們了解這一重要的新技術(shù)。讓事情變得更容易理解有助于人們向快節(jié)奏的技術(shù)領(lǐng)域過渡。

這種轉(zhuǎn)變以前也發(fā)生過很多次。計算機編程匯編級編碼開始。后來轉(zhuǎn)到了C語言這樣的代碼。今天很多人認(rèn)為C語言太復(fù)雜了,所以使用c++。很多時候,甚至不需要像c++這樣復(fù)雜的東西,所以只需要使用Python或R的超高級語言。如果你不需要一些超低級別的東西,那么你就沒有必要使用它(例如C代碼優(yōu)化、從零開始的深度網(wǎng)絡(luò)的研發(fā)),而且可以簡單地使用一些更高級別的和內(nèi)置的東西(例如Python、遷移學(xué)習(xí)、AI工具)。

與此同時,在人工智能技術(shù)的科學(xué)和研究方面繼續(xù)努力至關(guān)重要。我們一定可以通過設(shè)計基于人工智能的新產(chǎn)品為世界帶來巨大的價值。但這需要新的科學(xué)來推動。人類的創(chuàng)造力永遠(yuǎn)是寶貴的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:谷歌AutoML將如何改寫商業(yè)界對深度學(xué)習(xí)使用的游戲規(guī)則?

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于DSP的快速紙幣圖像識別技術(shù)研究

    技術(shù),并根據(jù)具體系統(tǒng)特性對現(xiàn)有的識別算法進(jìn)行分析、優(yōu)化和改進(jìn),以最終形成具有創(chuàng)新性、實用性和快速性特點的算法。這算法的研究與實現(xiàn),對于推動圖像識別技術(shù)理論的進(jìn)
    發(fā)表于 11-05 14:43

    基于圖像融合技術(shù)的運動目標(biāo)圖像識別研究

    基于圖像融合技術(shù)的運動目標(biāo)圖像識別研究_王佳欣
    發(fā)表于 01-07 20:32 ?5次下載

    詳細(xì)講解谷歌AutoML

    2018年1月,谷歌云宣布將AutoML最為機器學(xué)習(xí)產(chǎn)品的部分。目前,AutoML中有公開
    的頭像 發(fā)表于 07-26 09:29 ?5661次閱讀

    谷歌發(fā)布新研究成果,人工智能可以確診超過50種威脅視力的眼科疾病

    北京時間8月14日,谷歌DeepMind發(fā)布了研究成果,該研究報告稱谷歌與Moorfields眼科醫(yī)院合作產(chǎn)生了第
    發(fā)表于 08-14 16:36 ?1543次閱讀

    文讀懂圖像識別,真的前景不可限量?

    圖像識別技術(shù)人工智能 圖像識別技術(shù)是人工智能的重要領(lǐng)域。它是指對圖像進(jìn)行對象
    發(fā)表于 08-21 17:25 ?766次閱讀

    AutoML利器來了,谷歌宣布開源AdaNet(附教程)

    關(guān)鍵詞:AutoML , AdaNet , 集成學(xué)習(xí) , 機器學(xué)習(xí) , 神經(jīng)網(wǎng)絡(luò) 來源:新智元 今天,谷歌宣布開源AdaNet,這是輕量級的基于TensorFlow的框架,可以
    發(fā)表于 10-31 17:43 ?314次閱讀

    谷歌公布AI手勢識別成果

    谷歌成果AI手勢識別追蹤技術(shù)公布
    的頭像 發(fā)表于 08-23 15:17 ?4057次閱讀

    圖像識別技術(shù)是什么,它的使用領(lǐng)域有哪些

    圖像識別是立體視覺、運動分析、數(shù)據(jù)融合等實用技術(shù)的基礎(chǔ),導(dǎo)航、地圖與地形配準(zhǔn)、自然資源分析、天氣預(yù)報、環(huán)境監(jiān)測、生理病變研究等許多領(lǐng)域重要的應(yīng)用價值。
    的頭像 發(fā)表于 03-15 23:29 ?2.9w次閱讀

    圖像識別技術(shù)農(nóng)業(yè)領(lǐng)域的應(yīng)用

    隨著計算機技術(shù)的進(jìn)步,以圖像識別為代表的人工智能技術(shù)得以迅速發(fā)展并被廣泛用于航空、醫(yī)學(xué)等多個領(lǐng)域。今天,圖像識別技術(shù)也已成為發(fā)展現(xiàn)代農(nóng)業(yè)不可缺少的組成部分,成為實現(xiàn)農(nóng)業(yè)信息化與自動化的重要技術(shù)力量。
    發(fā)表于 03-19 15:02 ?5373次閱讀

    基于cnn車牌識別算法案例 深度學(xué)習(xí)的圖像識別研究

    圖像識別是人工智能領(lǐng)域重要方向。經(jīng)過多年的研究圖像識別技術(shù)取得了
    發(fā)表于 07-18 11:23 ?3次下載

    圖像識別技術(shù)原理 深度學(xué)習(xí)的圖像識別應(yīng)用研究

      圖像識別是人工智能領(lǐng)域重要方向。經(jīng)過多年的研究圖像識別技術(shù)取得了
    發(fā)表于 07-19 10:27 ?4次下載

    模擬矩陣圖像識別中的應(yīng)用

    訊維模擬矩陣圖像識別中的應(yīng)用主要是通過構(gòu)建包含多種圖像數(shù)據(jù)的模擬矩陣,來訓(xùn)練和測試深度學(xué)習(xí)模型,從而提高
    的頭像 發(fā)表于 09-04 14:17 ?620次閱讀
    模擬矩陣<b class='flag-5'>在</b><b class='flag-5'>圖像識別</b>中的應(yīng)用

    圖像識別技術(shù)原理 圖像識別技術(shù)的應(yīng)用領(lǐng)域

    圖像識別技術(shù)已經(jīng)各個領(lǐng)域廣泛應(yīng)用,其應(yīng)用領(lǐng)域包括但不限于以下幾個方面。 、智能安防領(lǐng)域
    的頭像 發(fā)表于 02-02 11:01 ?2785次閱讀

    圖像識別屬于人工智能嗎

    屬于。圖像識別是人工智能(Artificial Intelligence, AI)領(lǐng)域重要分支。
    的頭像 發(fā)表于 07-16 10:44 ?1334次閱讀

    圖像識別技術(shù)醫(yī)療領(lǐng)域的應(yīng)用

    、引言 圖像識別技術(shù)是種利用計算機視覺技術(shù)對圖像進(jìn)行分析和處理的技術(shù)。隨著計算機技術(shù)、人工智能技術(shù)、大數(shù)據(jù)技術(shù)等的發(fā)展,圖像識別技術(shù)
    的頭像 發(fā)表于 07-16 10:48 ?1173次閱讀
    主站蜘蛛池模板: 五月网址 | 妇乱子伦激情 | 好大好硬好深好爽的视频 | 午夜撸 | 国产美女叼嘿视频免费看 | 特黄特色视频 | 久久性妇女精品免费 | 大看蕉a在线观看 | 在线免费午夜视频 | 午夜欧美精品久久久久久久久 | 国产在线观看福利 | 久久久久久久久久久观看 | 精品亚洲大全 | 欧美人与物另类 | 夜色sese| 青草国内精品视频在线观看 | 天堂最新在线资源 | 天天操夜夜操狠狠操 | 亚洲免费观看在线视频 | 国产黄色在线 | 亚洲欧美视频在线观看 | 毛片在线看免费版 | 91久久国产青草亚洲 | 欧美色人阁 | 欧美视频免费一区二区三区 | 国内精品久久久久影院薰衣草 | 欧美黄色免费看 | 韩国免费三片在线视频 | 久久99精品福利久久久 | 国产日韩精品一区二区在线观看 | 亚洲一区二区三区在线视频 | 天天澡天天干 | 亚洲爽爽网 | 免费一级片在线观看 | 日本三级日本三级人妇三级四 | 午夜视频在线观看一区 | 永久黄网站色视频免费观看99 | 国产传媒在线观看视频免费观看 | 精品国产成人三级在线观看 | 热久久国产 | 欧美综合精品一区二区三区 |