91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學習模型部署到ML項目的過程

汽車玩家 ? 來源:AI公園 ? 作者:Rahul Agarwal ? 2020-05-04 11:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導讀

為什么我們的機器學習項目會失敗?

創(chuàng)造一個大的機器學習系統(tǒng)是一門藝術(shù)。

在構(gòu)建一個大的機器學習系統(tǒng)時,有很多事情需要考慮。但作為數(shù)據(jù)科學家,我們常常只擔心項目的某些部分。

但是我們是否考慮過一旦我們擁有了模型,我們將如何部署它們?

我見過許多 ML 項目,其中許多項目注定要失敗,因為它們從一開始就沒有一個固定的生產(chǎn)計劃。

這篇文章是關(guān)于一個成功的 ML 項目的過程需求 —— 一個進入生產(chǎn)的項目。

1. 在開始的時候建立基線

你并不需要用模型來獲得基線結(jié)果。

假設我們將使用 RMSE 作為我們的時間序列模型的評估指標。我們在測試集上對模型進行了評估,RMSE 為 3.64。

3.64 是個好 RMSE 嗎?我們怎么知道?我們需要一個基線 RMSE。

這可能來自當前使用的用于相同任務的模型。或者使用一些非常簡單的啟發(fā)式。對于時間序列模型,需要打敗的基線是最后一天的預測。即,預測前一天的數(shù)字。

如果是圖像分類任務,取 1000 個有標簽的樣本。而人類的準確性可以作為你的基線。如果一個人不能在任務中獲得 70%的預測精度,那么如果你的模型達到類似的水平,你總是可以考慮將流程自動化。

學習:在你創(chuàng)建模型之前,試著了解你將要得到的結(jié)果。設定一些不切實際的期望只會讓你和你的客戶失望。

2. 持續(xù)集成是前進的方向

你現(xiàn)在已經(jīng)創(chuàng)建了你的模型。它在本地測試數(shù)據(jù)集上的性能比基線/當前模型要好。我們應該繼續(xù)前進嗎?

我們有兩個選擇:

進一步改進我們的模型,這是一個無止境的循環(huán)。

在生產(chǎn)環(huán)境中測試我們的模型,得到更多關(guān)于可能出錯的信息,然后使用持續(xù)集成來改進我們的模型。

我支持第二種方法。Andrew Ng 在 Coursera 上的第三門課,“Deep Learning Specialization”中的“Structuring Machine learning”中說:

“不要一開始就試圖設計和構(gòu)建完美的系統(tǒng)。相反,應該快速地建立和訓練一個基本的系統(tǒng) —— 也許只需要幾天的時間。即使基本的系統(tǒng)遠遠不是你能建立的“最好”的系統(tǒng),檢查基本的系統(tǒng)是有價值的:你會很快找到一些線索,告訴你在哪些方面最值得投入你的時間。

完成比完美更好。

學習:如果你的新模型比當前生產(chǎn)中的模型更好,或者你的新模型比基線更好,那么等待投入生產(chǎn)是沒有意義的。

3. 你的模型可能會進入生產(chǎn)

你的模型是否優(yōu)于基線?它在本地測試數(shù)據(jù)集上表現(xiàn)得更好,但是它真的能在整體上工作得很好嗎?

為了測試你的模型優(yōu)于現(xiàn)有模型的假設的有效性,你可以設置一個A/B 測試。一些用戶(測試組)看到來自你的模型的預測,而一些用戶(控制組)看到來自前一個模型的預測。

事實上,這是部署模型的正確方式。你可能會發(fā)現(xiàn)你的模型并沒有看起來那么好。

錯了并不是真的錯,錯的是沒有預料到我們可能會錯。

很難指出你的模型在生產(chǎn)環(huán)境中表現(xiàn)不佳的真正原因,但一些原因可能是:

你可能會看到實時的數(shù)據(jù)與訓練數(shù)據(jù)有很大的不同。

或者你沒有正確地完成預處理 pipeline。

或者你沒有正確地衡量 performance。

或者你的實現(xiàn)中有一個 bug。

學習:不要全面投入生產(chǎn)。A/B 測試永遠是前進的好方法。準備一些可以依靠的東西(可能是一個更老的模型)。總有一些東西會出問題,這是你無法預料的。

4. 你的模型可能不會投入生產(chǎn)中

我創(chuàng)建了這個令人印象深刻的 ML 模型,它提供了 90%的準確性,但它需要大約 10 秒鐘來獲取預測。

**這樣可接受嗎?**對于某些用例可能是,但實際上不是。

在過去,有許多 Kaggle 競賽的獲勝者最終創(chuàng)造了非常大的模型集成,占據(jù)了排行榜的榜首。下面是一個例子模型,它曾在 Kaggle 上贏得 Otto 分類挑戰(zhàn):

在Level1上用了33個模型和8種特征工程

另一個例子是 Netflix 百萬美元推薦引擎挑戰(zhàn)。由于涉及的工程成本,Netflix 團隊最終沒有使用獲獎解決方案。

那么,如何讓你的模型在機器上既準確又簡單呢?

機器學習模型部署到ML項目的過程

Teacher — Student模型

這就引出了 Teacher-Student 模型或“知識蒸餾”的概念。在知識蒸餾中,我們在一個更大的已經(jīng)訓練好的教師模型上訓練一個更小的學生模型。

這里我們使用來自教師模型的軟標簽/概率,并將其作為學生模型的訓練數(shù)據(jù)。

關(guān)鍵是,老師輸出類別概率 —— “軟標簽”而不是“硬標簽”。例如,一個水果分類器可能會說“Apple 0.9, Pear 0.1”而不是“Apple 1.0, Pear 0.0”。為什么要這樣呢?因為這些“軟標簽”比原來的標簽信息更豐富——告訴學生,是的,這個蘋果確實有點像梨。學生模型通常可以非常接近教師水平的表現(xiàn),即使參數(shù)少了 1-2 個數(shù)量級!

學習:有時,我們的預測時間很有限,所以我們想要一個更輕的模型。我們可以嘗試構(gòu)建更簡單的模型,或者嘗試對這樣的用例使用知識蒸餾。

5. 周期性的維護和反饋

世界不是恒定的,你的模型權(quán)重也不是恒定的

我們周圍的世界正在迅速變化,兩個月前可能適用的東西現(xiàn)在可能已經(jīng)不適用了。在某種程度上,我們建立的模型是對世界的反映,如果世界在變化,我們的模型應該能夠反映這種變化。

機器學習模型部署到ML項目的過程

模型性能通常隨時間而下降。

由于這個原因,我們必須在一開始就考慮將我們的模型升級作為維護的一部分

維護周期的頻率完全取決于你試圖解決的業(yè)務問題。在一個廣告預測系統(tǒng)中,用戶往往變化無常,購買模式不斷出現(xiàn),需要相當高的頻率。而在評論情緒分析系統(tǒng)中,由于語言本身的結(jié)構(gòu)變化不是很大,所以頻率不需要那么高。

機器學習模型部署到ML項目的過程

我還必須要承認反饋回路在機器學習系統(tǒng)中的重要性。假設你用貓狗分類器預測了一個的圖像是狗,但是概率很低。我們能從這些低置信度的例子中學到什么嗎?你可以將其發(fā)送到手動檢查,以檢查它是否可以用于重新訓練模型。通過這種方式,我們可以在它不確定的樣本上訓練分類器。

學習:在考慮生產(chǎn)時,提出使用反饋來維護和改進模型的計劃。

總結(jié)

在考慮將模型投入生產(chǎn)之前,我發(fā)現(xiàn)這些事情是很重要的。

雖然這并不是你需要考慮的事情和可能出錯的事情的詳盡列表,但它無疑可以作為你下次創(chuàng)建機器學習系統(tǒng)時的思想食糧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8501

    瀏覽量

    134576
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    邊緣計算中的機器學習:基于 Linux 系統(tǒng)的實時推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來到Medium的這一角落。在本文中,我們將把一個機器學習模型(神經(jīng)網(wǎng)絡)部署邊緣設備上,利用從ModbusTCP寄存器
    的頭像 發(fā)表于 06-11 17:22 ?335次閱讀
    邊緣計算中的<b class='flag-5'>機器</b><b class='flag-5'>學習</b>:基于 Linux 系統(tǒng)的實時推理<b class='flag-5'>模型</b><b class='flag-5'>部署</b>與工業(yè)集成!

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?337次閱讀

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】機器人入門的引路書

    的限制和調(diào)控) 本書還有很多前沿技術(shù)項目的擴展 比如神經(jīng)網(wǎng)絡識別例程,機器學習圖像識別的原理,yolo圖像追蹤的原理 機器學習訓練三大點:
    發(fā)表于 04-30 01:05

    NanoEdge AI Studio 面向STM32開發(fā)人員機器學習ML)技術(shù)

    NanoEdge? AI Studio*(NanoEdgeAIStudio)是一種新型機器學習ML)技術(shù),可以讓終端用戶輕松享有真正的創(chuàng)新成果。只需幾步,開發(fā)人員便可基于最少量的數(shù)據(jù)為其項目
    的頭像 發(fā)表于 04-22 11:09 ?580次閱讀
    NanoEdge AI Studio 面向STM32開發(fā)人員<b class='flag-5'>機器</b><b class='flag-5'>學習</b>(<b class='flag-5'>ML</b>)技術(shù)

    Raspberry Pi Pico 2 上實現(xiàn):實時機器學習ML)音頻噪音抑制功能

    程序的開發(fā)方式。應用程序開發(fā)人員現(xiàn)在可以為所需系統(tǒng)整理包含大量輸入和輸出示例的數(shù)據(jù)集,然后使用這些數(shù)據(jù)集來訓練ML模型。在訓練過程中,ML模型
    的頭像 發(fā)表于 03-25 09:46 ?371次閱讀
    Raspberry Pi Pico 2 上實現(xiàn):實時<b class='flag-5'>機器</b><b class='flag-5'>學習</b>(<b class='flag-5'>ML</b>)音頻噪音抑制功能

    請問STM32部署機器學習算法硬件至少要使用哪個系列的芯片?

    STM32部署機器學習算法硬件至少要使用哪個系列的芯片?
    發(fā)表于 03-13 07:34

    K230D部署模型失敗的原因?

    MicroPython部署的無法正常運行,采用C++版本的無法實現(xiàn)部署 嘗試解決過程 1.考慮可能是固件不匹配的問題,重新燒錄了流程(生成模型
    發(fā)表于 03-11 06:19

    機器學習模型市場前景如何

    當今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發(fā)廣闊。下面,AI部落小編將探討機器學習
    的頭像 發(fā)表于 02-13 09:39 ?358次閱讀

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    將自然語言理解與運動規(guī)劃融為一體。這種端端的方法使機器人能夠直接從人類指令生成動作序列,大幅簡化了控制流程。該項目的工作流程包含設計并封裝一個人機器人函數(shù)庫、編寫清晰地描述提示詞、在
    發(fā)表于 12-24 15:03

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    可能在訓練數(shù)據(jù)上表現(xiàn)良好,但在遇到未曾見過的數(shù)據(jù)(例如不同環(huán)境、光照條件、角度等)時性能可能會下降。 對異常值敏感:如果訓練集中包含異常值或者噪聲數(shù)據(jù),這可能導致模型學習不正確的模式,從而影響其
    發(fā)表于 12-19 14:33

    構(gòu)建云原生機器學習平臺流程

    構(gòu)建云原生機器學習平臺是一個復雜而系統(tǒng)的過程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓練、評估、部署和監(jiān)控等多個環(huán)節(jié)。
    的頭像 發(fā)表于 12-14 10:34 ?430次閱讀

    AI模型部署邊緣設備的奇妙之旅:如何實現(xiàn)手寫數(shù)字識別

    新的數(shù)據(jù)樣本,另一個是判別器用來判斷這些樣本的真實性。兩者相互競爭,共同進化,最終實現(xiàn)高質(zhì)量的數(shù)據(jù)合成。 2.4 模型優(yōu)化技術(shù) 在將深度學習模型部署
    發(fā)表于 12-06 17:20

    AI大模型與深度學習的關(guān)系

    AI大模型與深度學習之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學習是AI大模型的基礎 技術(shù)支撐 :深度學習
    的頭像 發(fā)表于 10-23 15:25 ?2876次閱讀

    AI大模型與傳統(tǒng)機器學習的區(qū)別

    多個神經(jīng)網(wǎng)絡層組成,每個層都包含大量的神經(jīng)元和權(quán)重參數(shù)。 傳統(tǒng)機器學習模型規(guī)模相對較小,參數(shù)數(shù)量通常只有幾千幾百萬個,模型結(jié)構(gòu)相對簡單
    的頭像 發(fā)表于 10-23 15:01 ?2562次閱讀

    構(gòu)建語音控制機器人 - 線性模型機器學習

    2024-07-31 |Annabel Ng 在該項目的[上一篇博客文章]中,我介紹了運行機器人電機、處理音頻信號和調(diào)節(jié)電壓所需的電路的基礎知識。然而,機器人還沒有完全完成!盡管機器
    的頭像 發(fā)表于 10-02 16:31 ?567次閱讀
    構(gòu)建語音控制<b class='flag-5'>機器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機器</b><b class='flag-5'>學習</b>
    主站蜘蛛池模板: 诱人的老师bd高清日本在线观看 | 精品卡一卡二 卡四卡视频 精品噜噜噜噜久久久久久久久 | 亚洲色播永久网址大全 | 色综合天天综一个色天天综合网 | 天天草天天草 | 日韩成人一级 | 一级黄视频 | 在线a免费 | 天天综合在线视频 | 无人码一区二区三区视频 | 久久青草精品免费资源站 | 三级黄色短视频 | 又粗又大又猛又爽免费视频 | 国产精品午夜高清在线观看 | 国产福利不卡一区二区三区 | 天天透天天操 | 久久久久久午夜精品 | 色吧在线观看 | 日本系列 1页 亚洲系列 | 免费啪视频在线观看免费的 | 国产精品人成在线播放新网站 | 日日干夜夜操 | 天天干视频网站 | 国产三级日产三级日本三级 | 国产精品久久久久久久久福利 | 欧美一级艳片视频免费观看 | 久久久久性 | 不卡一区在线观看 | 91福利专区| 亚洲国产欧美精品一区二区三区 | 亚洲午夜小视频 | www.xxxx欧美| 天天干夜夜曰 | 精品三级三级三级三级三级 | 免费观看一级特黄三大片视频 | 亚洲久优优色优在线播放 | 国产xxxxxx久色视频在 | 国产精品国产三级国产在线观看 | 一本大道香蕉大vr在线吗视频 | 91av视频在线 | 激激婷婷综合五 |