91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA Triton 系列文章(9):為服務(wù)器添加模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2022-12-27 21:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

前面已經(jīng)用https://github.com/triton-inference-server/server/doc/examples 開源倉(cāng)的范例資源,創(chuàng)建一個(gè)最基礎(chǔ)的模型倉(cāng)以便執(zhí)行一些基礎(chǔ)的用戶端范例,現(xiàn)在就要帶著讀者為模型倉(cāng)添加新的模型。

在“創(chuàng)建模型倉(cāng)”的文章里講解過(guò),Triton 模型倉(cāng)使用目錄結(jié)構(gòu)與相關(guān)文件來(lái)形成一個(gè)模型的基礎(chǔ)要素,如下所列:

79a87fe2-85e8-11ed-bfe3-dac502259ad0.png

上面的目錄結(jié)構(gòu)與模型文件是最基本的材料,處理起來(lái)是很容易的,比較復(fù)雜的部分是配置文件 config.pbtxt 的內(nèi)容,里面提供 Triton 服務(wù)器用來(lái)管理模型執(zhí)行特性的各項(xiàng)參數(shù),這些設(shè)置的內(nèi)容主要分為靜態(tài)的基礎(chǔ)(minimal)設(shè)置項(xiàng)與動(dòng)態(tài)的優(yōu)化(optimization)設(shè)置兩大部分,本文內(nèi)容先針對(duì)基礎(chǔ)配置項(xiàng)的部分進(jìn)行說(shuō)明。

為了說(shuō)明這些配置內(nèi)容,這里先以范例模型倉(cāng)里的 inception_graphdef 模型的配置文件 config.pbtxt 為例,來(lái)配合以下的簡(jiǎn)單說(shuō)明,比較容易讓大家理解詳細(xì)的內(nèi)容:

79c93e9e-85e8-11ed-bfe3-dac502259ad0.png

每個(gè)配置文件里都至少包含以下5個(gè)部分:

1. 模型名稱:

這部分直接使用存放模型的文件夾名稱,因此可以省略,如果要指定的話就必須與文件夾名稱一致。

2. 平臺(tái)/后端名稱(Name, Platform and Backend):

這部分必須與模型訓(xùn)練時(shí)使用的框架與文件格式相匹配,以下是使用頻率較高的種類:

79f14218-85e8-11ed-bfe3-dac502259ad0.png

至于其他平臺(tái)/后端的對(duì)應(yīng)名稱,就需要根據(jù)實(shí)際的平臺(tái)與對(duì)應(yīng)名稱進(jìn)行配置。

3. 模型執(zhí)行策略(Model Transaction Policy):

這個(gè)屬性只有一個(gè)“解耦(decoupled)與否”的選項(xiàng)。使用解耦意味著模型生成的響應(yīng)的數(shù)量可能與發(fā)出的請(qǐng)求的數(shù)量不同,并且響應(yīng)可能與請(qǐng)求的順序無(wú)關(guān)。

默認(rèn)值為 false,上面范例中并未列出這個(gè)參數(shù)的配置值,表示“不啟用解耦”功能,意味著該模型將為每個(gè)請(qǐng)求生成一個(gè)響應(yīng)。

如果需要啟用解耦功能,就在配置文件內(nèi)添加以下內(nèi)容:

model_transaction_policy {
  decoupled: True
}

4. 最大批量值(Maximum Batch Size):

Triton 服務(wù)器支持多種調(diào)度和批處理算法,可以為每個(gè)模型獨(dú)立選擇。這個(gè)屬性表示執(zhí)行該推理模型計(jì)算時(shí)的最大批量規(guī)模,包括“無(wú)狀態(tài)(stateless)”或“有狀態(tài)(stateful)”等類型的模型。

這個(gè)參數(shù)主要配合下面“輸入/輸出節(jié)點(diǎn)內(nèi)容”的張量尺度部分,例如本范例中輸入節(jié)點(diǎn)張量格式為“format: FORMAT_NHWC”,但是下面尺度“dims: [ 299, 299, 3 ]”的三個(gè)數(shù)值是對(duì)應(yīng)到“HWC(高/寬/通道)”,缺少“批量值(N)”的部分,這正是這個(gè)“最大批量值”為輸入節(jié)點(diǎn)與輸出節(jié)點(diǎn)所配置的數(shù)值,這樣 Triton 可以使用動(dòng)態(tài)批處理器或序列批處理器自動(dòng)對(duì)模型進(jìn)行批處理。

在這種情況下,max_batch_size 應(yīng)設(shè)置為大于或等于1的值,表示應(yīng)與該模型一起使用的最大批次大小;對(duì)于不支持批處理或不支持以上述特定方式進(jìn)行批處理的推理模型,則將 max_batch_size 設(shè)置為 0。

5. 輸入節(jié)點(diǎn)與輸出節(jié)點(diǎn)(Inputs and Outputs):

每個(gè)推理模型都有至少一個(gè)輸入節(jié)點(diǎn)與輸出節(jié)點(diǎn),這部分的內(nèi)容必須配合模型的內(nèi)容,不能自己隨便定義。

要添加新的推理模型時(shí),推薦使用 Netron 工具查看模型的網(wǎng)絡(luò)結(jié)構(gòu),只要在瀏覽器上輸入“netron.app”后打開模型文件就可以。目前經(jīng)過(guò)測(cè)試,Netron.APP 工具能查看 ONNX、TensorFlow/graphdef、Pytorch 等模型文件的網(wǎng)絡(luò)結(jié)構(gòu),相當(dāng)方便。

下圖是 model_repository/inception_graphdef/1/model.graphdef 模型文件所能看到的輸入/輸出節(jié)點(diǎn)的內(nèi)容:

7a097c7a-85e8-11ed-bfe3-dac502259ad0.png

每個(gè)節(jié)點(diǎn)都包含“名稱”“數(shù)據(jù)類型”“尺度(shape)”三個(gè)部分,現(xiàn)在就進(jìn)一步說(shuō)明:

(1) 節(jié)點(diǎn)名稱(name):

上圖最左邊的輸入節(jié)點(diǎn)在整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的最上方,名稱為“input”;中間輸出節(jié)點(diǎn)在網(wǎng)絡(luò)結(jié)構(gòu)最下方,點(diǎn)選“softmax”節(jié)點(diǎn)會(huì)出現(xiàn)右邊灰色信息塊,顯示其完整名稱為“InceptionV3/Predictions/Softmax”。現(xiàn)在對(duì)照模型的 config.pbtxt 里對(duì)應(yīng)內(nèi)容,是必須能匹配的,否則啟動(dòng) Triton 服務(wù)器時(shí)會(huì)出現(xiàn)錯(cuò)誤。

不過(guò)這個(gè)環(huán)節(jié)里對(duì) PyTorch 模型需要特殊的處理,由于 TorchScript 模型文件中輸入/輸出的元數(shù)據(jù)不足,配置中輸入/輸出的“名稱屬性”必須遵循以下特定的命名約定:

  • 使用張量字典(Dictionary of Tensor):

Triton 服務(wù)器的 PyTorch 后端支持以張量字典的形式將輸入傳遞給模型,例如模型有如下的張量字典內(nèi)容: {'A': tensor1, 'B': tensor2} 輸入的名稱映射到該特定張量的字符串“key”值,例如“A”或“B”,其中輸入“A”是指對(duì)應(yīng)于 tensor1 的值、“B”是指對(duì)應(yīng)于 tensor2 的值。

  • 映射到 forward() 函數(shù)的輸入值:

當(dāng)輸入節(jié)點(diǎn)名稱不在張量字典內(nèi),就使用 TorchScript 模型里所定義的 forward() 函數(shù)輸入值。例如函數(shù)定義為“forward(self, input0, input1)”時(shí),則兩個(gè)輸入節(jié)點(diǎn)的名稱分別對(duì)應(yīng)為“input0”與“input1”。
  • 使用_格式:

這里的可以是任何字符串、則對(duì)應(yīng)到輸入或輸出順序的整數(shù),例如模型有兩個(gè)輸入節(jié)點(diǎn)與兩個(gè)輸出節(jié)點(diǎn)時(shí),可以用“INPUT_0”與“INPUT_1”代表兩個(gè)輸入節(jié)點(diǎn)、用“OUTPUT_0”與“OUTPUT_1”代表兩個(gè)輸出節(jié)點(diǎn)。

  • 如果所有輸入(或輸出)不遵循相同的命名約定,那么我們從模型配置中強(qiáng)制執(zhí)行嚴(yán)格排序,即我們假設(shè)配置中輸入(或輸出)的順序是這些輸入的真實(shí)順序。

(2) 數(shù)據(jù)類型(data_type):

輸入和輸出張量所允許的數(shù)據(jù)類型因模型類型而異,數(shù)據(jù)類型部分描述了允許的數(shù)據(jù)類型以及它們?nèi)绾斡成涞矫總€(gè)模型類型的數(shù)據(jù)類型。

下表顯示了 Triton 支持的張量數(shù)據(jù)類型:

7a408f1c-85e8-11ed-bfe3-dac502259ad0.png

  • 第 1 列顯示模型配置文件中顯示的數(shù)據(jù)類型的名稱;

  • 第 2~5 列顯示了支持的模型框架的相應(yīng)數(shù)據(jù)類型,如果模型框架沒(méi)有給定數(shù)據(jù)類型的條目,則 Triton 不支持該模型的數(shù)據(jù)類型;

  • 第 6 列為“API”,顯示 TRITONSERVER C API、TRITONBACKEND C API、HTTP/REST 協(xié)議和 GRPC 協(xié)議的對(duì)應(yīng)數(shù)據(jù)類型;

  • 第 7 列顯示 Python numpy 庫(kù)的對(duì)應(yīng)數(shù)據(jù)類型。

以上是關(guān)于模型數(shù)據(jù)類型的部分。

(3)張量尺度(dims):

這里提供的張量尺度內(nèi)容是去除第一個(gè) batch_size 的部分,因此需要與前面設(shè)定的 max_batch_size 組合形成完整的張量尺度。

輸入節(jié)點(diǎn)的張量尺度(如“dims: [ 299, 299, 3 ]”),表示模型和 Triton 在推理請(qǐng)求中預(yù)期的張量尺寸;輸出節(jié)點(diǎn)的張量尺度(如“dims: [ 1001 ]”),表示模型生成的輸出張量的形狀,并由 Triton 服務(wù)器響應(yīng)推斷請(qǐng)求返回。

輸入和輸出尺度內(nèi)的值都必須大于或等于 1,也就是不允許使用[]空尺度,節(jié)點(diǎn)的尺度由 max_batch_size 和輸入或輸出 dims 屬性指定的維度的組合指定。

  • max_batch_size > 0時(shí):整個(gè)尺度的形式為[-1, dims]。

  • max_batch_size = 0時(shí):整個(gè)形狀形成為[ dims]。

例如本文范例中輸入節(jié)點(diǎn)的尺度為“dims: [ 299, 299, 3 ]”、max_batch_size=128,則張量尺度的完整表達(dá)為“[ -1, 299, 299, 3]”;如果 max_batch_size=0 時(shí),則張量尺度的完整表達(dá)為“[ 299, 299, 3]”。

6. 版本策略(version_policy):

每個(gè)模型可以有一個(gè)或多個(gè)版本,模型配置的 ModelVersionPolicy 屬性用于設(shè)置以下策略之一。

7a8443ba-85e8-11ed-bfe3-dac502259ad0.png

如果未指定版本策略,則使用最新版本(n=1)作為默認(rèn)值,表示 Triton 僅提供最新版本的模型。在所有情況下,從模型存儲(chǔ)庫(kù)中添加或刪除版本子目錄都可以更改后續(xù)推理請(qǐng)求中使用的模型版本。

以上是完成一個(gè) config.pbtxt 模型配置文件的最基礎(chǔ)內(nèi)容,大部分內(nèi)容都比較直觀,除了最后面的張量尺度會(huì)有比較多的變化之外,不過(guò)只要逐漸熟悉推理運(yùn)作的過(guò)程之后,就能更進(jìn)一步掌握與 batch_size 相關(guān)的應(yīng)用與調(diào)試方式。


原文標(biāo)題:NVIDIA Triton 系列文章(9):為服務(wù)器添加模型

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3948

    瀏覽量

    93685

原文標(biāo)題:NVIDIA Triton 系列文章(9):為服務(wù)器添加模型

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動(dòng)。本文將一步步帶你在本地服務(wù)器上完成該模型的部署,并搭建一個(gè)直觀的 Web 交互界面,親身體驗(yàn)前沿 AI 的“思考”過(guò)程。
    的頭像 發(fā)表于 07-09 10:17 ?147次閱讀

    使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    針對(duì)基于 Diffusion 和 LLM 類別的 TTS 模型NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發(fā)表于 06-12 15:37 ?572次閱讀
    使用<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Triton</b>和TensorRT-LLM部署TTS應(yīng)用的最佳實(shí)踐

    DeepSeek企業(yè)級(jí)部署服務(wù)器資源計(jì)算 以raksmart裸機(jī)云服務(wù)器

    以RakSmart裸機(jī)云服務(wù)器例,針對(duì)DeepSeek企業(yè)級(jí)部署的服務(wù)器資源計(jì)算指南,涵蓋GPU/CPU/內(nèi)存/存儲(chǔ)/網(wǎng)絡(luò)等核心維度的詳細(xì)計(jì)算方法與配置推薦,主機(jī)推薦小編為您整理發(fā)布以raksmart裸機(jī)云
    的頭像 發(fā)表于 03-21 10:17 ?374次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫(kù)加速并擴(kuò)展AI推理模型

    Triton 推理服務(wù)器的后續(xù)產(chǎn)品,NVIDIA Dynamo 是一款全新的 AI 推理服務(wù)軟件,旨在為部署推理 AI 模型的 AI 工廠
    的頭像 發(fā)表于 03-20 15:03 ?642次閱讀

    利用RAKsmart服務(wù)器托管AI模型訓(xùn)練的優(yōu)勢(shì)

    AI模型訓(xùn)練需要強(qiáng)大的計(jì)算資源、高效的存儲(chǔ)和穩(wěn)定的網(wǎng)絡(luò)支持,這對(duì)服務(wù)器的性能提出了較高要求。而RAKsmart服務(wù)器憑借其核心優(yōu)勢(shì),成為托管AI模型訓(xùn)練的理想選擇。下面,AI部落小編為
    的頭像 發(fā)表于 03-18 10:08 ?259次閱讀

    請(qǐng)問(wèn)是否可以在模型服務(wù)器中使用REST請(qǐng)求OpenVINO?預(yù)測(cè)?

    是否可以在模型服務(wù)器中使用 REST 請(qǐng)求OpenVINO?預(yù)測(cè)?
    發(fā)表于 03-05 08:06

    Firefly 服務(wù)器系列:覆蓋多個(gè)領(lǐng)域的高算力解決方案

    Firefly專注于以云計(jì)算和大數(shù)據(jù)核心的服務(wù)器產(chǎn)品開發(fā)與應(yīng)用,陸續(xù)推出支持多種計(jì)算單元的ARM服務(wù)器,覆蓋多個(gè)行業(yè)及領(lǐng)域,客戶提供優(yōu)質(zhì)的解決方案。Firefly
    的頭像 發(fā)表于 02-19 16:34 ?606次閱讀
    Firefly <b class='flag-5'>服務(wù)器</b><b class='flag-5'>系列</b>:覆蓋多個(gè)領(lǐng)域的高算力解決方案

    Triton編譯的優(yōu)勢(shì)與劣勢(shì)分析

    據(jù)流分析技術(shù),能夠自動(dòng)識(shí)別并優(yōu)化深度學(xué)習(xí)模型中的計(jì)算瓶頸,從而提高模型的整體性能。 它支持多種硬件平臺(tái)的優(yōu)化,包括CPU、GPU、FPGA等,深度學(xué)習(xí)模型的部署提供了更廣泛的選擇。
    的頭像 發(fā)表于 12-25 09:07 ?1179次閱讀

    Triton編譯在機(jī)器學(xué)習(xí)中的應(yīng)用

    1. Triton編譯概述 Triton編譯NVIDIA Triton推理
    的頭像 發(fā)表于 12-24 18:13 ?986次閱讀

    Triton編譯功能介紹 Triton編譯器使用教程

    Triton 是一個(gè)開源的編譯前端,它支持多種編程語(yǔ)言,包括 C、C++、Fortran 和 Ada。Triton 旨在提供一個(gè)可擴(kuò)展和可定制的編譯框架,允許開發(fā)者
    的頭像 發(fā)表于 12-24 17:23 ?1676次閱讀

    NVIDIA AI服務(wù)器領(lǐng)域重大革新:預(yù)計(jì)明年首推插槽式設(shè)計(jì)

    在科技界引起廣泛關(guān)注的最新動(dòng)態(tài)中,里昂證券于9月26日發(fā)布了一份引人注目的報(bào)告,揭示了NVIDIA在AI服務(wù)器領(lǐng)域的一項(xiàng)重大變革。據(jù)該報(bào)告透露,NVIDIA即將在AI
    的頭像 發(fā)表于 09-26 14:25 ?1166次閱讀

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢(shì),廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和
    的頭像 發(fā)表于 09-09 09:19 ?930次閱讀

    NVIDIA攜手Meta推出AI服務(wù)企業(yè)提供生成式AI服務(wù)

    NVIDIA近日宣布了一項(xiàng)重大舉措,正式推出NVIDIA AI Foundry服務(wù)NVIDIA NIM(NVIDIA Inference
    的頭像 發(fā)表于 07-25 16:57 ?840次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?1055次閱讀

    NVIDIA AI Foundry 全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    Foundry 提供從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護(hù)到評(píng)估的全方位生成式 AI 模型服務(wù),以便部署自定義 Llama 3.1 NVIDIA NIM 微服務(wù)和新的
    發(fā)表于 07-24 09:39 ?914次閱讀
    <b class='flag-5'>NVIDIA</b> AI Foundry <b class='flag-5'>為</b>全球企業(yè)打造自定義 Llama 3.1 生成式 AI <b class='flag-5'>模型</b>
    主站蜘蛛池模板: 亚洲视频久久 | 欧美做a欧美 | 亚洲欧美综合一区 | 久久电影www成人网 久久电影福利 | www.天天操.com | 午夜啪啪网站 | 在线视频观看一区 | 99色视频在线 | 国产色播 | 欧美一级高清免费a | 被暗卫肉高h | 午夜影院0606| 禁漫羞羞a漫入口 | 天天干天天综合 | 色婷婷视频在线观看 | 天天射天天干天天舔 | 最新午夜宅男 | 国产精品伦理一区二区三区 | 玖玖在线免费视频 | 欧美日韩在线成人免费 | 99热一区 | 一级免费黄色片 | 午夜五月天 | 啪啪大片| 久久国产乱子伦精品免费午夜 | 日韩毛片免费线上观看 | 婷婷综合七月激情啪啪 | 老师下面好湿好紧好滑好想要 | 一级特黄aaa大片在 一级特黄aaa大片在线观看视频 | 欧美性极品xxxxx | 免费看一级毛片 | 91精品啪国产在线观看免费牛牛 | 成人免费无毒在线观看网站 | 国产精品毛片天天看片 | 久久久久久久久久久观看 | 春宵福利网站 | 在线视频毛片 | 天天操天天射天天爽 | 国内精品免费视频自在线 | 视频在线观看一区二区 | 三级在线观看免播放网站 |