在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是預(yù)訓(xùn)練 AI 模型?

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-04-04 01:45 ? 次閱讀

預(yù)訓(xùn)練 AI 模型是為了完成特定任務(wù)而在大型數(shù)據(jù)集上訓(xùn)練的深度學(xué)習(xí)模型。這些模型既可以直接使用,也可以根據(jù)不同行業(yè)的應(yīng)用需求進(jìn)行自定義。

如果要教一個(gè)剛學(xué)會(huì)走路的孩子什么是獨(dú)角獸,那么我們首先應(yīng)該向孩子展示這種生物的圖像并描述其獨(dú)有特征。

那么,如果要教一臺(tái)人工智能(AI)機(jī)器什么是獨(dú)角獸,該從什么地方做起呢?

預(yù)訓(xùn)練 AI 模型提供了解決方案。

預(yù)訓(xùn)練 AI 模型是一種為了完成某項(xiàng)特定任務(wù)而在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練的深度學(xué)習(xí)模型,它是一種類腦神經(jīng)算法的表現(xiàn)形式,可以根據(jù)數(shù)據(jù)找到模式或進(jìn)行預(yù)測(cè)。預(yù)訓(xùn)練 AI 模型既可以直接使用,也可以根據(jù)某個(gè)應(yīng)用的具體需求進(jìn)行進(jìn)一步微調(diào)。

為什么使用預(yù)訓(xùn)練 AI 模型?

開發(fā)者可以使用預(yù)訓(xùn)練模型并根據(jù)需求對(duì)其進(jìn)行自定義,無需從頭開始構(gòu)建 AI 模型。

無論是識(shí)別一匹虛構(gòu)的馬,檢測(cè)自動(dòng)駕駛汽車的安全隱患,還是根據(jù)醫(yī)學(xué)影像診斷癌癥,要構(gòu)建一個(gè) AI 應(yīng)用,開發(fā)者首先需要一個(gè)能夠完成特定任務(wù)的 AI 模型。而這個(gè)模型需要大量具有代表性的數(shù)據(jù)進(jìn)行學(xué)習(xí)。

模型的學(xué)習(xí)過程需要經(jīng)歷好幾層傳入數(shù)據(jù),并在每一層強(qiáng)調(diào)與目標(biāo)相關(guān)的特征。

例如,在創(chuàng)建一個(gè)能夠識(shí)別獨(dú)角獸的模型時(shí),首先會(huì)為其提供獨(dú)角獸、馬、貓、老虎和其他動(dòng)物的圖像作為傳入數(shù)據(jù)。

然后再構(gòu)建具有代表性的數(shù)據(jù)特征層。從線條、顏色等簡單特征開始,深入到復(fù)雜的結(jié)構(gòu)特征。依據(jù)計(jì)算出的概率,這些特征將被賦予不同程度的相關(guān)性。

舉個(gè)例子,當(dāng)一個(gè)生物看起來越像馬,它是獨(dú)角獸而不是貓或老虎的概率就越大。這些概率值被存儲(chǔ)在 AI 模型的每個(gè)神經(jīng)網(wǎng)絡(luò)層。隨著層數(shù)的增加,模型對(duì)表征的理解程度也在提高。

若要從頭開始創(chuàng)建一個(gè)這樣的模型,開發(fā)者通常需要調(diào)用包含數(shù)十億行數(shù)據(jù)的巨大數(shù)據(jù)集,并且這些數(shù)據(jù)可能十分昂貴且難以獲得。但如果因此在數(shù)據(jù)上讓步,就會(huì)導(dǎo)致模型性能不佳。

預(yù)先計(jì)算的概率表征(也稱權(quán)重)能夠節(jié)省開發(fā)者或企業(yè)的時(shí)間、金錢和精力。已建立完成的預(yù)訓(xùn)練模型可通過這些權(quán)重進(jìn)行訓(xùn)練。

高質(zhì)量的預(yù)訓(xùn)練模型搭配大量準(zhǔn)確且具有代表性的權(quán)重可以提高 AI 部署的成功率。

權(quán)重可以被修改,而且可以通過添加更多數(shù)據(jù)為模型進(jìn)行進(jìn)一步的自定義或微調(diào)。

在預(yù)訓(xùn)練模型基礎(chǔ)上進(jìn)行構(gòu)建的開發(fā)者可以更快創(chuàng)建出 AI 應(yīng)用,因?yàn)樗麄儫o需處理堆積如山的傳入數(shù)據(jù)或去計(jì)算密集的數(shù)據(jù)層的概率。

換言之,使用預(yù)訓(xùn)練 AI 模型就像是用一件成衣根據(jù)自己的需求進(jìn)行剪裁,而不用從布料和針線做起。

預(yù)訓(xùn)練 AI 模型通常被用于遷移學(xué)習(xí),可以基于多種模型架構(gòu)類型而構(gòu)建。其中一種流行的架構(gòu)類型是 Transformer 模型,一種通過追蹤連續(xù)數(shù)據(jù)中的關(guān)系來學(xué)習(xí)上下文和意義的神經(jīng)網(wǎng)絡(luò)。

AI 公司 Clarifai 是NVIDIA 初創(chuàng)加速計(jì)劃的高級(jí)合作伙伴。Clarifai 的平臺(tái)高級(jí)副總裁 Alfredo Ramos 表示,預(yù)訓(xùn)練模型可以將 AI 應(yīng)用的開發(fā)時(shí)間縮短一年并節(jié)約數(shù)十萬美元的成本。

預(yù)訓(xùn)練模型如何推動(dòng) AI 的發(fā)展?

預(yù)訓(xùn)練模型簡化并加快了 AI 的開發(fā),許多開發(fā)者和公司通過它們來加速各種 AI 用例。

預(yù)訓(xùn)練模型主要推動(dòng)了以下幾個(gè)領(lǐng)域的 AI 發(fā)展:

  • 自然語言處理:預(yù)訓(xùn)練模型被用于翻譯、聊天機(jī)器人等自然語言處理應(yīng)用。大型語言模型一般基于 Transformer 模型架構(gòu)構(gòu)建,是預(yù)訓(xùn)練模型的延伸。世界上最大的 AI 模型之一NVIDIA NeMo Megatron就是一個(gè)預(yù)訓(xùn)練大型語言模型。

  • 語音 AI:預(yù)訓(xùn)練模型能幫助語音 AI 應(yīng)用在不同的語言下也能直接使用。用例包括呼叫中心自動(dòng)化、AI 助手和語音識(shí)別技術(shù)。

  • 計(jì)算機(jī)視覺:如上文所述的獨(dú)角獸模型,預(yù)訓(xùn)練模型可以幫助 AI 快速識(shí)別生物或者物體、地點(diǎn)和人。預(yù)訓(xùn)練模型通過這種方式加速計(jì)算機(jī)視覺,為體育運(yùn)動(dòng)、智慧城市等領(lǐng)域的應(yīng)用提供近似于人類的視覺能力。

  • 醫(yī)療:在醫(yī)療應(yīng)用方面,MegaMolBART(NVIDIA BioNeMo服務(wù)和框架的一部分)等預(yù)訓(xùn)練 AI 模型能夠理解化學(xué)語言并學(xué)習(xí)現(xiàn)實(shí)世界分子中原子之間的關(guān)系,為科學(xué)界提供了一種加快藥物研發(fā)的強(qiáng)大工具。

  • 網(wǎng)絡(luò)安全:預(yù)訓(xùn)練模型為實(shí)施 AI 網(wǎng)絡(luò)安全解決方案打下了基礎(chǔ),并幫助人類安全分析師更快的發(fā)現(xiàn)威脅。包括人類和機(jī)器的數(shù)字指紋及異常、敏感信息和網(wǎng)絡(luò)釣魚檢測(cè)等多種情況。

  • 藝術(shù)和創(chuàng)作流程:為推動(dòng)最新的 AI 藝術(shù)浪潮,預(yù)訓(xùn)練模型可以在GauGANNVIDIA Canvas等工具的幫助下加快創(chuàng)作流程。

預(yù)訓(xùn)練 AI 模型的自定義和微調(diào)為其帶來了無限的應(yīng)用可能性,因此也可以用于更多其他行業(yè)。

何處獲取預(yù)訓(xùn)練 AI 模型

谷歌、Meta、微軟、NVIDIA 等公司正在發(fā)明用于構(gòu)建 AI 模型的尖端模型架構(gòu)和框架。

這些模型有時(shí)會(huì)在模型中心或作為開放源碼發(fā)布,使開發(fā)者能夠?qū)︻A(yù)訓(xùn)練 AI 模型進(jìn)行微調(diào)、提高其準(zhǔn)確性并擴(kuò)展模型庫。

NVIDIA NGC匯集了通過 GPU 優(yōu)化的 AI 軟件、模型和 Jupyter Notebook 示例,包括各種預(yù)訓(xùn)練模型以及為 NVIDIA AI 平臺(tái)優(yōu)化的 AI 基準(zhǔn)和訓(xùn)練方式。

NVIDIA AI Enterprise是一套全面且安全的云原生 AI 與數(shù)據(jù)分析軟件套件,包含未加密的預(yù)訓(xùn)練模型。這讓希望將 NVIDIA 預(yù)訓(xùn)練模型整合到其自定義 AI 應(yīng)用中的開發(fā)者和企業(yè)能夠查看模型權(quán)重和偏差、提高可解釋性并輕松進(jìn)行調(diào)試。

在 GitHub、Hugging Face 等平臺(tái)也有數(shù)千個(gè)可供使用的開源模型。

十分重要的是,在訓(xùn)練預(yù)訓(xùn)練模型時(shí),模型數(shù)據(jù)必須透明、可解釋、符合隱私要求,并且是獲得同意許可且無偏見的道德數(shù)據(jù)。

NVIDIA 預(yù)訓(xùn)練 AI 模型

為幫助更多開發(fā)者將 AI 原型投入到生產(chǎn)中,NVIDIA 提供了幾種開箱即用的預(yù)訓(xùn)練模型:

  • NVIDIA SegFormer是一個(gè)在 GitHub 上提供的 Transformer 模型,可實(shí)現(xiàn)簡單、高效、強(qiáng)大的語義分割。

  • NVIDIA 的專用計(jì)算機(jī)視覺模型經(jīng)數(shù)百萬張圖像訓(xùn)練而成,可用于智慧城市、停車管理等應(yīng)用。

  • NVIDIA NeMo Megatron是一個(gè)大型可定制語言模型,包含在 NVIDIA NeMo 中。NeMo 是一個(gè)用于構(gòu)建靈活、高性能對(duì)話式 AI、語音 AI 和生物學(xué)應(yīng)用的開源框架。

  • NVIDIA StyleGAN是一個(gè)基于風(fēng)格的生成器架構(gòu),用于生成式對(duì)抗網(wǎng)絡(luò)(或稱 GAN)。它可以使用遷移學(xué)習(xí)來無限生成各種不同風(fēng)格的繪畫。

除此之外,NVIDIA 還能夠提供:

  • NVIDIA Riva:一款用于構(gòu)建和部署語音 AI 應(yīng)用的 GPU 加速軟件開發(fā)工具包,包含了十種語言的預(yù)訓(xùn)練模型。

  • MONAI:由 NVIDIA 和倫敦國王學(xué)院聯(lián)合開發(fā)的開源醫(yī)療研究 AI 框架,包含了用于醫(yī)學(xué)影像的預(yù)訓(xùn)練模型

點(diǎn)擊閱讀原文,進(jìn)一步了解NVIDIA 預(yù)訓(xùn)練 AI 模型

掃描海報(bào)二維碼即可觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 GTC23 主題演講重播!


原文標(biāo)題:什么是預(yù)訓(xùn)練 AI 模型?

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3926

    瀏覽量

    93189

原文標(biāo)題:什么是預(yù)訓(xùn)練 AI 模型?

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    海思SD3403邊緣計(jì)算AI數(shù)據(jù)訓(xùn)練概述

    模型,將模型轉(zhuǎn)化為嵌入式AI模型模型升級(jí)AI攝像機(jī),進(jìn)行
    發(fā)表于 04-28 11:11

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對(duì)大語言模型
    的頭像 發(fā)表于 03-21 18:24 ?1300次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功怎么處理?

    訓(xùn)練好的ai模型導(dǎo)入cubemx不成功咋辦,試了好幾個(gè)模型壓縮了也不行,ram占用過大,有無解決方案?
    發(fā)表于 03-11 07:18

    從Open Model Zoo下載的FastSeg大型公共預(yù)訓(xùn)練模型,無法導(dǎo)入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共預(yù)訓(xùn)練模型。 運(yùn)行 converter.py 以將 FastSeg 大型模型轉(zhuǎn)換為中間表示 (IR): pyth
    發(fā)表于 03-05 07:22

    Apex平臺(tái):簡化AI API開發(fā),賦能開發(fā)者

    Apex是一個(gè)由Arya.ai公司傾力打造的AI API平臺(tái),該平臺(tái)通過提供一系列預(yù)訓(xùn)練AI模型
    的頭像 發(fā)表于 02-20 09:45 ?405次閱讀

    用PaddleNLP在4060單卡上實(shí)踐大模型預(yù)訓(xùn)練技術(shù)

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 之前我們分享了《從零開始訓(xùn)練一個(gè)大語言模型需要投資多少錢》,其中高昂的預(yù)訓(xùn)練費(fèi)用讓許多對(duì)大模型
    的頭像 發(fā)表于 02-19 16:10 ?875次閱讀
    用PaddleNLP在4060單卡上實(shí)踐大<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>技術(shù)

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?655次閱讀

    KiCon演講回顧(四):AI助力電子元件庫自動(dòng)化提取

    “ ?李寧老師將帶您探索《基于AI的元件參數(shù)自動(dòng)提取方法研究》中的前沿技術(shù)! ? ” 自動(dòng)化電子元件庫的需求 華為挑戰(zhàn):基于預(yù)訓(xùn)練AI模型
    的頭像 發(fā)表于 11-25 11:56 ?1282次閱讀
    KiCon演講回顧(四):<b class='flag-5'>AI</b>助力電子元件庫自動(dòng)化提取

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?883次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來源分析

    AI模型訓(xùn)練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對(duì)于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對(duì)AI
    的頭像 發(fā)表于 10-23 15:32 ?3234次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個(gè)復(fù)雜且耗時(shí)的過程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?4741次閱讀

    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)

    鷺島論壇數(shù)據(jù)智能系列講座第4期「預(yù)訓(xùn)練的基礎(chǔ)模型下的持續(xù)學(xué)習(xí)」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目預(yù)
    的頭像 發(fā)表于 10-18 08:09 ?533次閱讀
    直播預(yù)約 |數(shù)據(jù)智能系列講座第4期:<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的基礎(chǔ)<b class='flag-5'>模型</b>下的持續(xù)學(xué)習(xí)

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣?b class='flag-5'>模型性能、減少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討
    的頭像 發(fā)表于 07-11 10:12 ?1925次閱讀

    大語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到語言的通用知識(shí)
    的頭像 發(fā)表于 07-11 10:11 ?904次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,尤其是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。預(yù)
    的頭像 發(fā)表于 07-03 18:20 ?4227次閱讀
    主站蜘蛛池模板: 国产精品看片 | 欧美日韩国产一区 | 黄色毛片免费看 | 91黄色视屏 | 日本人xxxxxxxxxⅹ68| 赛罗奥特曼银河帝国普通话免费版 | 亚洲一区二区三区网站 | bt种子在线搜索 | 亚洲一区二区在线视频 | 中文字幕xxx| 免费的黄色片 | 四虎影免看黄 | 一级片在线观看视频 | 久久久伊香蕉网站 | 天天干天天干天天干天天 | 手机福利片 | 濑亚美莉vs黑人欧美视频 | 福利三区 | 欧美一级欧美一级高清 | 国产成人三级视频在线观看播放 | 狠狠色丁香婷婷综合久久来 | 午夜剧场刺激性爽免费视频 | 色偷偷中文字幕 | 免费观看黄a一级视频日本 免费观看黄色网页 | 国产好深好硬好爽我还要视频 | 深夜释放自己vlog糖心旧版本 | 亚洲天堂一区二区三区 | 欧美日韩一区二区三区视频 | 中出丰满大乳中文字幕 | 亚洲色图22p| 国产精品久久久久乳精品爆 | 国产三级视频 | 天天干天天操天天干 | 一本大道加勒比久久 | 欧美夜夜 | 中文字幕在线资源 | 中文字幕有码视频 | 中文字幕卡二和卡三的视频 | 啪啪91视频 | 亚洲成人高清在线观看 | 80s国产成年女人毛片 |