在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用遷移學(xué)習(xí)定制人工智能深度學(xué)習(xí)模型

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:About Tanay Varshney, ? 2022-04-01 09:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

從頭開始創(chuàng)建一個(gè)新的人工智能深度學(xué)習(xí)模型是一個(gè)非常耗費(fèi)時(shí)間和資源的過程。解決這個(gè)問題的一個(gè)常見方法是采用遷移學(xué)習(xí)。為了使這一過程更加簡(jiǎn)單,NVIDIA TAO Toolkit,它可以將工程時(shí)間框架從 80 周縮短到 8 周。 TAO 工具包支持計(jì)算機(jī)視覺和對(duì)話 AI ( ASR 和 NLP )用例。

在本文中,我們將介紹以下主題:

安裝 TAO 工具包并訪問預(yù)訓(xùn)練模型

微調(diào)預(yù)訓(xùn)練語音轉(zhuǎn)錄模型

將微調(diào)模型導(dǎo)出到 NVIDIA Riva

跟隨 download the Jupyter notebook。

安裝 TAO 工具包并下載預(yù)訓(xùn)練模型

在安裝 TAO 工具包之前,請(qǐng)確保您的系統(tǒng)上安裝了以下組件:

Python [3 。 6 。 9]

docker ce 》 19 。 03 。 5

nvidia-DOCKR2 3 。 4 。 0-1

有關(guān)安裝 nvidia docker 和 docker 的更多信息,請(qǐng)參閱Prerequisites。您可以使用 pip 安裝 TAO 工具包。我們建議使用virtual environment以避免版本沖突。

安裝完成后,下一步是獲得一些經(jīng)過預(yù)訓(xùn)練的模型。 NVIDIA 提供了許多人工智能或機(jī)器學(xué)習(xí)模型,不僅在對(duì)話人工智能領(lǐng)域,而且在 NGC 或 NVIDIA GPU 云上的廣泛領(lǐng)域。 NGC 目錄是一套精心策劃的 GPU 優(yōu)化軟件,用于 AI 、 HPC 和可視化。

要從 NGC 下載資源,請(qǐng)使用NGC API key登錄注冊(cè)表。您可以免費(fèi)創(chuàng)建和使用一個(gè)。

圖 1 。獲取 NGCAPI 密鑰

CitriNet是由 NVIDIA 構(gòu)建的最先進(jìn)的自動(dòng)語音識(shí)別( ASR )模型,可用于生成語音轉(zhuǎn)錄。您可以從Speech to Text English Citrinet型號(hào)卡下載此型號(hào)。

為了提供流暢的體驗(yàn),工具包在后臺(tái)下載并運(yùn)行 Docker 容器,使用前面提到的規(guī)范文件。所有細(xì)節(jié)都隱藏在 TAO 啟動(dòng)器中。您可以通過定義 JSON 文件~/.tao_mounts.json來指定裝載 Docker 容器的首選位置。您可以在Jupyter notebook中找到裝載文件。

這樣,您就安裝了 TAO 工具包,下載了一個(gè)經(jīng)過預(yù)訓(xùn)練的 ASR 模型,并指定了 TAO 工具包啟動(dòng)器的安裝點(diǎn)。在下一節(jié)中,我們將討論如何使用 TAO 工具包在您選擇的數(shù)據(jù)集上微調(diào)此模型。

微調(diào)模型

使用 TAO 工具包微調(diào)模型包括三個(gè)步驟:

下載規(guī)范文件。

預(yù)處理數(shù)據(jù)集。

使用超參數(shù)進(jìn)行微調(diào)。

圖 3 顯示了微調(diào)模型所需的步驟。

圖 2 。 TAO 工具包工作流

步驟 1 :下載規(guī)范文件

NVIDIA TAO Toolkit 是一種低代碼或無代碼的解決方案,通過規(guī)范文件簡(jiǎn)化模型的培訓(xùn)或微調(diào)。通過這些文件,您可以自定義特定于模型的參數(shù)、培訓(xùn)師參數(shù)、優(yōu)化器和所用數(shù)據(jù)集的參數(shù)。可以將這些規(guī)范文件下載到先前裝載的文件夾:

以下是 TAO 工具包附帶的 YAML 文件。有關(guān)更多信息,請(qǐng)參閱Downloading Sample Spec Files。

create_tokenizer.yaml

dataset_convert_an4.yaml

dataset_convert_en.yaml

dataset_convert_ru.yaml

evaluate.yaml

export.yaml

finetune.yaml

infer_onnx.yaml

infer.yaml

train_citrinet_256.yaml

train_citrinet_bpe.yaml

這些規(guī)范文件可供自定義和使用。從預(yù)處理和模型評(píng)估到推理和導(dǎo)出模型,都有相應(yīng)的功能。這使您能夠完成開發(fā)或定制模型的過程,而無需構(gòu)建復(fù)雜的代碼庫。下載等級(jí)庫文件后,現(xiàn)在可以繼續(xù)預(yù)處理數(shù)據(jù)。

步驟 2 :預(yù)處理數(shù)據(jù)集

在本演練中,您將使用CMU’s AN4 Dataset,這是一個(gè)小型普查數(shù)據(jù)集,其中包含地址、數(shù)字和其他個(gè)人信息的記錄。這與客戶支持對(duì)話中對(duì)話的初始步驟所需的轉(zhuǎn)錄類型類似。具有類似內(nèi)容的較大自定義數(shù)據(jù)集可用于實(shí)際應(yīng)用程序。

您可以直接下載和解壓縮 AN4 數(shù)據(jù)集,或使用以下命令:

TAO 工具包培訓(xùn)和微調(diào)模塊期望數(shù)據(jù)以特定格式呈現(xiàn)。可以使用 dataset _ convert 命令完成此預(yù)處理。我們將 AN4 和 Mozilla 的通用語音數(shù)據(jù)集的規(guī)范文件與 TAO 啟動(dòng)器一起打包。您可以在步驟 1 中定義的目錄中找到這些規(guī)范文件。

這些清單文件(圖 3 )包含在后面的步驟中使用的以下信息:

音頻文件的路徑

每個(gè)文件的持續(xù)時(shí)間

每個(gè)文件的文字內(nèi)容

圖 3 。已處理清單文件的結(jié)構(gòu)

此命令將音頻文件轉(zhuǎn)換為 WAV 文件,并生成訓(xùn)練和測(cè)試清單文件。

在大多數(shù)情況下,您都會(huì)進(jìn)行預(yù)處理,但 CitriNet 模型是一個(gè)特例。它需要以子詞標(biāo)記化的形式進(jìn)行進(jìn)一步處理,為文本創(chuàng)建子詞詞匯表。這與 Jasper 或 QuartzNet 不同,因?yàn)樵谒鼈兊那闆r下,詞匯表中只有單個(gè)字符被視為元素。在 CitriNet 中,子字可以是一個(gè)或多個(gè)字符。這可以使用以下命令完成:

到目前為止,您已經(jīng)建立了一個(gè)工具,為諸如遷移學(xué)習(xí)之類的復(fù)雜問題提供低代碼或無代碼解決方案。您已經(jīng)下載了一個(gè)預(yù)訓(xùn)練的模型,將音頻文件處理為必要的格式,并執(zhí)行了標(biāo)記化。您使用的命令不到 10 個(gè)。現(xiàn)在,所有必要的細(xì)節(jié)都已散列出來,您可以繼續(xù)微調(diào)模型。

步驟 3 :使用超參數(shù)進(jìn)行微調(diào)

正如在前面的步驟中所做的那樣,您正在與規(guī)范文件交互。有關(guān)更多信息,請(qǐng)參閱Creating an Experiment Spec File。如果要調(diào)整 FFT 窗口大小的大小,可以指定幾乎所有內(nèi)容,從特定于訓(xùn)練的參數(shù)(如優(yōu)化器)到特定于數(shù)據(jù)集的參數(shù),再到模型配置本身。

是否要更改學(xué)習(xí)速率和調(diào)度程序,或者在詞匯表中添加新字符?無需打開代碼庫并對(duì)其進(jìn)行掃描以進(jìn)行更改。所有這些定制都很容易獲得,并可在整個(gè)團(tuán)隊(duì)中共享。這減少了在嘗試新想法和分享結(jié)果以及模型配置方面的摩擦,從而提高了準(zhǔn)確性。

以下是如何微調(diào)數(shù)據(jù)集:

最后,要繼續(xù),請(qǐng)根據(jù)需要修改規(guī)范文件并運(yùn)行以下命令。此命令使用先前下載的數(shù)據(jù)集微調(diào)下載的模型。有關(guān)更多信息,請(qǐng)參閱Fine-Tuning the Model。

在對(duì)模型進(jìn)行微調(diào)或培訓(xùn)后,自然會(huì)評(píng)估模型并評(píng)估是否需要進(jìn)一步微調(diào)。為此, NVIDIA 為evaluate your model和run inference提供了功能。

將微調(diào)模型導(dǎo)出到 Riva

在生產(chǎn)環(huán)境中部署模型會(huì)帶來一系列挑戰(zhàn)。為此,您可以使用NVIDIA Riva,一種 GPU 加速 AI 語音 SDK 來開發(fā)實(shí)時(shí)轉(zhuǎn)錄和虛擬助理等應(yīng)用程序。

Riva 使用其他 NVIDIA 產(chǎn)品:

NVIDIA Triton Inference Server用于簡(jiǎn)化大規(guī)模生產(chǎn)中模型的部署。

NVIDIA TensorRT用于通過優(yōu)化 NVIDIA GPU s 的模型來加速模型并提供更好的推理性能。

如果您對(duì)使用本演練中微調(diào)的模型感興趣,可以使用以下命令將其導(dǎo)出到 Riva 。

在下一篇文章中,我們將介紹如何安裝 NVIDIA Riva 在生產(chǎn)環(huán)境中部署這些模型,以及如何使用NGC Catalog中的眾多模型之一。

關(guān)于作者

About Tanay Varshney

Tanay Varshney 是 NVIDIA 的一名深入學(xué)習(xí)的技術(shù)營(yíng)銷工程師,負(fù)責(zé)廣泛的 DL 軟件產(chǎn)品。他擁有紐約大學(xué)計(jì)算機(jī)科學(xué)碩士學(xué)位,專注于計(jì)算機(jī)視覺、數(shù)據(jù)可視化和城市分析的橫斷面。

About Sirisha Rella

Sirisha Rella 是 NVIDIA 的技術(shù)產(chǎn)品營(yíng)銷經(jīng)理,專注于計(jì)算機(jī)視覺、語音和基于語言的深度學(xué)習(xí)應(yīng)用。 Sirisha 獲得了密蘇里大學(xué)堪薩斯城分校的計(jì)算機(jī)科學(xué)碩士學(xué)位,是國(guó)家科學(xué)基金會(huì)大學(xué)習(xí)中心的研究生助理。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5274

    瀏覽量

    105992
  • 人工智能
    +關(guān)注

    關(guān)注

    1805

    文章

    48871

    瀏覽量

    247675
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    嵌入式和人工智能究竟是什么關(guān)系?

    、連接主義和深度學(xué)習(xí)等不同的階段。目前,人工智能已經(jīng)廣泛應(yīng)用于各種領(lǐng)域,如自然語言處理、計(jì)算機(jī)視覺、智能推薦等。 嵌入式系統(tǒng)和人工智能在許
    發(fā)表于 11-14 16:39

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個(gè)很大的子集是機(jī)器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)
    發(fā)表于 10-24 17:22 ?2853次閱讀
    <b class='flag-5'>人工智能</b>、機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?2775次閱讀

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    人工智能在科學(xué)研究中的核心技術(shù),包括機(jī)器學(xué)習(xí)深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)構(gòu)成了AI for Science的基石,使得AI能夠處理和分析復(fù)雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    人工智能:科學(xué)研究的加速器 第一章清晰地闡述了人工智能作為科學(xué)研究工具的強(qiáng)大功能。通過機(jī)器學(xué)習(xí)深度學(xué)習(xí)等先進(jìn)技術(shù),AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    FPGA在人工智能中的應(yīng)用有哪些?

    定制化的硬件設(shè)計(jì),提高了硬件的靈活性和適應(yīng)性。 綜上所述,F(xiàn)PGA在人工智能領(lǐng)域的應(yīng)用前景廣闊,不僅可以用于深度學(xué)習(xí)的加速和云計(jì)算的加速,還可以針對(duì)特定應(yīng)用場(chǎng)景進(jìn)行
    發(fā)表于 07-29 17:05

    深度學(xué)習(xí)模型有哪些應(yīng)用場(chǎng)景

    深度學(xué)習(xí)模型作為人工智能領(lǐng)域的重要分支,已經(jīng)在多個(gè)應(yīng)用場(chǎng)景中展現(xiàn)出其巨大的潛力和價(jià)值。這些應(yīng)用不僅改變了我們的日常生活,還推動(dòng)了科技進(jìn)步和產(chǎn)業(yè)升級(jí)。以下將詳細(xì)探討
    的頭像 發(fā)表于 07-16 18:25 ?3887次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣?b class='flag-5'>模型性能、減少訓(xùn)練時(shí)間和降低
    的頭像 發(fā)表于 07-11 10:12 ?1976次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?3976次閱讀

    人工智能、機(jī)器學(xué)習(xí)深度學(xué)習(xí)是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機(jī)器學(xué)習(xí)(Machine Learning, ML)和深度學(xué)習(xí)(Deep Learning,
    的頭像 發(fā)表于 07-03 18:22 ?2609次閱讀

    人工智能深度學(xué)習(xí)的五大模型及其應(yīng)用領(lǐng)域

    隨著科技的飛速發(fā)展,人工智能(AI)技術(shù)特別是深度學(xué)習(xí)在各個(gè)領(lǐng)域展現(xiàn)出了強(qiáng)大的潛力和廣泛的應(yīng)用價(jià)值。深度學(xué)習(xí)作為人工智能的一個(gè)核心分支,通過
    的頭像 發(fā)表于 07-03 18:20 ?6528次閱讀

    深度學(xué)習(xí)的典型模型和訓(xùn)練過程

    深度學(xué)習(xí)作為人工智能領(lǐng)域的一個(gè)重要分支,近年來在圖像識(shí)別、語音識(shí)別、自然語言處理等多個(gè)領(lǐng)域取得了顯著進(jìn)展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動(dòng)學(xué)習(xí)并提取特征,進(jìn)而實(shí)
    的頭像 發(fā)表于 07-03 16:06 ?2873次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-01 16:13 ?2563次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會(huì)遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?1733次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器
    的頭像 發(fā)表于 07-01 11:40 ?2345次閱讀
    主站蜘蛛池模板: 日产毛片| 激情五月激情综合色区 | 日本黄色免费一级片 | 伊人网综合在线观看 | 手机看片自拍自自拍日韩免费 | 久久99久久精品97久久综合 | 亚洲精品91大神在线观看 | 在线视频亚洲色图 | 一本二卡三卡四卡乱码二百 | 精品美女在线 | 乱人伦小说短篇 | 麻豆美女大尺度啪啪 | 亚洲啪啪看看 | 日本暴力喉深到呕吐hd | 亚洲国产成a人v在线观看 | 深夜一级毛片 | 国产美女一级ba大片免色 | 久久综合色视频 | 日日摸夜夜添免费毛片小说 | 亚洲久优优色优在线播放 | 97玖玖 | 日本黄色xxxx | 夜夜爽8888| 狠狠色噜噜狠狠狠狠黑人 | 一区二区三区四区无限乱码在线观看 | 爱操视频在线观看 | 免费黄色福利 | 亚洲高清免费观看 | 扒开末成年粉嫩的流白浆视频 | 女生扒开尿口让男生舔 | 中文三级视频 | 亚洲精品中文字幕乱码三区一二 | 你懂的在线视频播放 | 啪啪调教所29下拉式免费阅读 | 性夜黄 a 爽免费看 性夜黄a爽影免费看 | 男人日女人的网站 | 色多多在线 | 国产高清一级视频在线观看 | 韩国特黄特色a大片免费 | 久久水蜜桃网 | 18免费视频 |