在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

在 NGC 上玩轉(zhuǎn)新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

NVIDIA英偉達企業(yè)解決方案 ? 來源:未知 ? 2022-12-13 19:50 ? 次閱讀

號外:

全場景高性能 AI 部署工具

FastDeploy 發(fā)版 v1.0

幾行代碼搞定 AI 部署,快速使用 150+ 預置部署示例,支持 CV、NLP、Speech、Cross-model 模型,并提供開箱即用的云邊端部署體驗,實現(xiàn) AI 模型端到端的推理性能優(yōu)化。

歡迎廣大開發(fā)者使用 NVIDIA 與飛槳聯(lián)合深度適配的 NGC 飛槳容器,在 NVIDIA GPU 上進行體驗 FastDeploy!

全場景高性能 AI 部署工具 FastDeploy

人工智能技術在各行各業(yè)正加速應用落地。為了向開發(fā)者提供產(chǎn)業(yè)實踐推理部署最優(yōu)解,百度飛槳發(fā)起了 FastDeploy 開源項目。FastDeploy 具備全場景、簡單易用、極致高效三大特點。

(1)簡單易用:幾行代碼完成 AI 模型的 GPU 部署,一行命令切換推理后端,快速體驗 150+ 熱門模型部署

FastDeploy 精心設計模型 API,不同語言統(tǒng)一 API 體驗,只需要幾行核心代碼,就可以實現(xiàn)預知模型的高性能推理,極大降低了 AI 模型部署難度和工作量。一行命令切換 TensorRT、Paddle Inference、ONNX Runtime、Poros 等不同推理后端,充分利用推理引擎在 GPU 硬件上的優(yōu)勢。

import fastdeploy as fd
import cv2
option = fd.RuntimeOption()
option.use_gpu()
option.use_trt_backend() # 一行命令切換使用 TensorRT部署
model = fd.vision.detection.PPYOLOE("model.pdmodel", 
                                    "model.pdiparams", 
                                    "infer_cfg.yml",
                                    runtime_option=option)
im = cv2.imread("test.jpg")
result=model.predict(im)

FastDeploy 幾行命令完成 AI 模型部署

FastDeploy 支持 CV、NLP、Speech、Cross-modal(跨模態(tài))四大 AI 領域,覆蓋 20 多主流場景、150 多個 SOTA 產(chǎn)業(yè)模型的端到端示例,包括圖像分類、圖像分割、語義分割、物體檢測、字符識別(OCR)、人臉檢測、人臉關鍵點檢測、人臉識別、人像扣圖、視頻扣圖、姿態(tài)估計、文本分類、信息抽取、文圖生成、行人跟蹤、語音合成等。支持飛槳 PaddleClas、PaddleDetection、PaddleSeg、PaddleOCR、PaddleNLP、PaddleSpeech 6 大熱門 AI 套件的主流模型及生態(tài)(如 PyTorch、ONNX 等)熱門模型的部署。

ce727aea-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 在 NVIDIA GPU、Jetson上的 AI 模型部署庫

(2)全場景:支持多框架,輕松搞定 PaddlePaddle、PyTorch、ONNX 等模型部署

FastDeploy 支持 TensorRT、Paddle Inference、ONNX Runtime、Poros 推理引擎,統(tǒng)一部署 API,只需要一行代碼,便可靈活切換多個 GPU 推理引擎后端。內(nèi)置了 X2Paddle 和 Paddle2ONNX 模型轉(zhuǎn)換工具,只需要一行命令便可完成其他深度學習框架到飛槳以及 ONNX 的相互轉(zhuǎn)換,讓其他框架的開發(fā)者也能通過 FastDeploy 體驗到飛槳模型壓縮與推理引擎的端到端優(yōu)化效果。覆蓋 GPU、Jetson Nano、Jetson TX2、Jetson AGX、Jetson Orin 等云邊端場景全系列 NVIDIA 硬件部署。同時支持服務化部署、離線部署、端側(cè)部署方式。

cefeae48-7adb-11ed-8abf-dac502259ad0.png

(3)極致高效:一鍵壓縮提速,預處理加速,端到端性能優(yōu)化,提升 AI 算法產(chǎn)業(yè)落地

FastDeploy 集成了自動壓縮工具,在參數(shù)量大大減小的同時(精度幾乎無損),推理速度大幅提升。使用 CUDA 加速優(yōu)化預處理和后處理模塊,將 YOLO 系列的模型推理加速整體從 41ms 優(yōu)化到 25ms。端到端的優(yōu)化策略,徹底解決 AI 部署落地中的性能難題。更多性能優(yōu)化,歡迎關注 GitHub 了解詳情。

https://github.com/PaddlePaddle/FastDeploy

cf2995a4-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 一行命令實現(xiàn)自動壓縮,充分利用硬件資源提升推理速度

cf465f7c-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 提升 AI 任務端到端推理速

直播預告:服務化部署高并發(fā)調(diào)優(yōu)實戰(zhàn)

12 月 12 日 - 12 月 30 日,《產(chǎn)業(yè)級 AI 模型部署全攻略》系列直播課程,F(xiàn)astDeploy 聯(lián)合 10 家硬件公司與大家直播見面。

12 月 14 日 20:30 開始,NVIDIA 與百度資深專家將為大家?guī)硪浴?strong>一鍵搞定服務化部署,實現(xiàn)穩(wěn)定高并發(fā)服務”為主題的精彩分享,詳細解說 FastDeploy 服務化部署實戰(zhàn)教學,以及如何提升 GPU 利用率和吞吐量!歡迎大家掃碼報名獲取直播鏈接,加入交流群與行業(yè)精英深度共同探討 AI 部署落地話題。

一鍵搞定服務化部署

實現(xiàn)穩(wěn)定高并發(fā)服務

cf8eaeb2-7adb-11ed-8abf-dac502259ad0.png

12 月 14 日,星期三,20:30

精彩亮點

  • 企業(yè)級 NGC 容器,快速獲取強大的軟硬件能力

  • 三行代碼搞定 AI 部署,一鍵體驗 150+ 部署 demo

  • 服務化部署實戰(zhàn)教學,提升 GPU 利用率和吞吐量

會議嘉賓

cfa5c0fc-7adb-11ed-8abf-dac502259ad0.jpg

Adam | NVIDIA 亞太區(qū)資深產(chǎn)品經(jīng)理

cfd0522c-7adb-11ed-8abf-dac502259ad0.png

Jason|百度資深研發(fā)工程師

參與方式

d0400824-7adb-11ed-8abf-dac502259ad0.png

掃碼報名獲取直播鏈接


原文標題:在 NGC 上玩轉(zhuǎn)新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3926

    瀏覽量

    93196

原文標題:在 NGC 上玩轉(zhuǎn)新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3)

    AI端側(cè)部署開發(fā)(SC171開發(fā)套件V3) 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉(zhuǎn)化指南------Docker Desktop環(huán)境操作
    發(fā)表于 04-16 18:30

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理AI 模型新引擎?

    電子發(fā)燒友網(wǎng)報道(文 / 李彎彎)日前,谷歌 Cloud Next 大會上,隆重推出了最新一代 TPU AI 加速芯片 ——Ironwood。據(jù)悉,該芯片預計于今年晚些時候面向 Google
    的頭像 發(fā)表于 04-12 00:57 ?2153次閱讀

    【幸狐Omni3576邊緣計算套件試用體驗】DeepSeek 部署及測試

    開源。 部署方案 目前幸狐 Omni3576 板端部署 Deepseek 提供了兩種方法,分別是使用 Ollama 工具部署和使用瑞芯微官
    發(fā)表于 03-21 19:31

    AI Agent 應用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    、響應速度等多個因素。RAG技術已經(jīng)成為構(gòu)建新一代AI應用的重要基礎,掌握這技術對于開發(fā)高質(zhì)量的智能系統(tǒng)至關重要。本書畢竟重點還是在于對Agent技術的入門引導,RAG技術棧講解并不算深入。在此給大家
    發(fā)表于 03-07 19:49

    如何部署OpenVINO?工具套件應用程序?

    編寫代碼并測試 OpenVINO? 工具套件應用程序后,必須將應用程序安裝或部署到生產(chǎn)環(huán)境中的目標設備。 OpenVINO?部署管理器指南包含有關如何輕松使用
    發(fā)表于 03-06 08:23

    是否可以使用OpenVINO?部署管理器部署機器運行Python應用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運行時軟件包。 將運行時包轉(zhuǎn)移到部署機器中。 無法確定是否可以部署機器運行 Python 應用程
    發(fā)表于 03-05 08:16

    C#集成OpenVINO?:簡化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是個用于優(yōu)化和部署人工智能(AI)模型,提升
    的頭像 發(fā)表于 02-17 10:03 ?1854次閱讀
    C#集成OpenVINO?:簡化<b class='flag-5'>AI</b>模型<b class='flag-5'>部署</b>

    添越智創(chuàng)基于 RK3588 開發(fā)板部署測試 DeepSeek 模型全攻略

    ,Gemma 和其他多種模型,安裝Ollama工具之后,使用以下命令即可部署15億參數(shù)的deepseek-r1模型,運行之后如下圖所示: ollama run deepseek-
    發(fā)表于 02-14 17:42

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務

    近日,摩爾線程智能科技(北京)有限責任公司在其官方渠道發(fā)布了則重要消息,宣布公司已經(jīng)成功實現(xiàn)了對DeepSeek蒸餾模型推理服務的部署。這技術突破,標志著摩爾線程
    的頭像 發(fā)表于 02-06 13:49 ?738次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?483次閱讀
    如何開啟Stable Diffusion WebUI模型<b class='flag-5'>推理</b><b class='flag-5'>部署</b>

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是個開源的大語言模型服務工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama算力魔方
    的頭像 發(fā)表于 11-23 17:22 ?3600次閱讀
    用Ollama輕松<b class='flag-5'>搞定</b>Llama 3.2 Vision模型本地<b class='flag-5'>部署</b>

    如何在STM32f4系列開發(fā)板上部署STM32Cube.AI

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經(jīng)過開發(fā)板處理器進行AI模型處理識別過后,告訴我識別結(jié)果,顯示
    發(fā)表于 11-18 09:39

    設備利用AI Edge Torch生成式API部署自定義大語言模型

    ,從而無縫地將新的設備端生成式 AI 模型部署到邊緣設備。本文是 Google AI Edge 博客連載的第二篇。
    的頭像 發(fā)表于 11-14 10:23 ?978次閱讀
    <b class='flag-5'>在</b>設備<b class='flag-5'>上</b>利用<b class='flag-5'>AI</b> Edge Torch生成式API<b class='flag-5'>部署</b>自定義大語言模型

    YOLOv6LabVIEW中的推理部署(含源碼)

    相關介紹文章,所以筆者實現(xiàn)YOLOv6 ONNX LabVIEW中的部署推理后,決定和各位讀者分享下如何使用LabVIEW實現(xiàn)YOLO
    的頭像 發(fā)表于 11-06 16:07 ?834次閱讀
    YOLOv6<b class='flag-5'>在</b>LabVIEW中的<b class='flag-5'>推理</b><b class='flag-5'>部署</b>(含源碼)

    三行代碼完成生成式AI部署

    LLM加載與推理部署能力,實現(xiàn)了OpenVINO對CNN網(wǎng)絡、生成式模型、LLM網(wǎng)絡主流模型的全面推理支持。
    的頭像 發(fā)表于 08-30 16:49 ?691次閱讀
    三行<b class='flag-5'>代碼</b>完成生成式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>
    主站蜘蛛池模板: 欧美特黄一区二区三区 | 天天干天天谢 | 午色影院| 亚洲成a人一区二区三区 | 中文字幕亚洲一区婷婷 | 野外啪啪抽搐一进一出 | 国产激情视频一区二区三区 | 欧美h视频 | 欧美极品xxxxⅹ另类 | 美女视频一区二区三区 | 最近2018年中文字幕免费图片 | 老司机精品视频免费 | 特级aaa片毛片免费观看 | 成人性色生活片免费看爆迷你毛片 | 四虎影院永久免费观看 | 一道精品一区二区三区 | 性免费视频 | 亚洲三级网址 | xxxx免费大片| 秋霞一级特黄真人毛片 | 欧美一级特黄啪啪片免费看 | 亚州 色 图 综合 | 西西人体www303sw大胆高清 | 乱好看的的激情伦小说 | 午夜视频www | 俺去啦五月 | 青草视频网站在线观看 | 色视频色露露永久免费观看 | 精品乱码一区二区三区四区 | 三级网站国产 | 婷婷网址| 美女三级黄| 久久久久免费精品国产小说 | 亚洲免费视频观看 | 激情综合六月 | 色综合久久中文字幕网 | 你懂的网址在线观看 | 免费在线观看大片影视大全 | 在线视频 二区 | 国产巨大bbbb天美 | 综合爱爱 |