在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

低門檻AI部署工具FastDeploy開源!

新機器視覺 ? 來源:新機器視覺 ? 作者:新機器視覺 ? 2022-11-08 14:28 ? 次閱讀

人工智能產業應用發展的越來越快,開發者需要面對的適配部署工作也越來越復雜。層出不窮的算法模型、各種架構的AI硬件、不同場景的部署需求(服務器、服務化、嵌入式、移動端等)、不同操作系統和開發語言,為AI開發者項目落地帶來不小的挑戰。edc63234-5f1e-11ed-8abf-dac502259ad0.png

為了解決AI部署落地難題,我們發起了FastDeploy項目。FastDeploy針對產業落地場景中的重要AI模型,將模型API標準化,提供下載即可運行的Demo示例。相比傳統推理引擎,做到端到端的推理性能優化。FastDeploy還支持在線(服務化部署)和離線部署形態,滿足不同開發者的部署需求。

經過為期一年的高密度打磨,FastDeploy目前具備三類特色能力:

全場景:支持GPUCPU、Jetson、ARM CPU、瑞芯微NPU、晶晨NPU、恩智浦NPU等多類硬件,支持本地部署、服務化部署、Web端部署、移動端部署等,支持CV、NLP、Speech三大領域,支持圖像分類、圖像分割、語義分割、物體檢測、字符識別(OCR)、人臉檢測識別、人像扣圖、姿態估計、文本分類、信息抽取、行人跟蹤、語音合成等16大主流算法場景。

易用靈活:三行代碼完成AI模型的部署,一行API完成模型替換,無縫切換至其他模型部署,提供了150+熱門AI模型的部署Demo。

極致高效:相比傳統深度學習推理引擎只關注模型的推理時間,FastDeploy則關注模型任務的端到端部署性能。通過高性能前后處理、整合高性能推理引擎、一鍵自動壓縮等技術,實現了AI模型推理部署的極致性能優化。

項目傳送門:

https://github.com/PaddlePaddle/FastDeploy

以下將對該3大特性做進一步技術解讀,全文大約2100字,預計閱讀時長3分鐘。

1

3大特性篇

2

3步部署實戰篇,搶先看

CPU/GPU部署實戰

Jetson部署實戰

RK3588部署實戰(RV1126、晶晨A311D等NPU類似)

1

3大特性解讀

全場景:一套代碼云邊端多平臺多硬件一網打盡,覆蓋CV、NLP、Speech

支持PaddleInference、TensorRT、OpenVINO、ONNXRuntime、PaddleLite、RKNN等后端,覆蓋常見的NVIDIAGPU、x86CPU、Jetson Nano、Jetson TX2、ARMCPU(移動端、ARM開發板)、Jetson Xavier、瑞芯微NPU(RK3588、RK3568、RV1126、RV1109、RK1808)、晶晨NPU(A311D、S905D)等云邊端場景的多類幾十款AI硬件部署。同時支持服務化部署、離線CPU/GPU部署、端側和移動端部署方式。針對不同硬件,統一API保證一套代碼在數據中心、邊緣部署和端側部署無縫切換。edd89dc0-5f1e-11ed-8abf-dac502259ad0.jpgFastDeploy支持CV、NLP、Speech三大AI領域,覆蓋16大類算法(圖像分類、圖像分割、語義分割、物體檢測、字符識別(OCR) 、人臉檢測、人臉關鍵點檢測、人臉識別、人像扣圖、視頻扣圖、姿態估計、文本分類 信息抽取 文圖生成、行人跟蹤、語音合成)。支持飛槳PaddleClas、PaddleDetection、PaddleSeg、PaddleOCR、PaddleNLP、PaddleSpeech 6大熱門AI套件的主流模型,同時也支持生態(如PyTorch、ONNX等)熱門模型的部署。ede4faa2-5f1e-11ed-8abf-dac502259ad0.gif ?

易用靈活,三行代碼完成模型部署,一行命令快速體驗150+熱門模型部署

FastDeploy三行代碼可完成AI模型在不同硬件上的部署,極大降低了AI模型部署難度和工作量。一行命令切換TensorRT、OpenVINO、Paddle Inference、Paddle Lite、ONNX Runtime、RKNN等不同推理后端和對應硬件。低門檻的推理引擎后端集成方案,平均一周時間即可完成任意硬件推理引擎的接入使用,解耦前后端架構設計,簡單編譯測試即可體驗FastDeploy支持的AI模型。開發者可以根據模型API實現相應模型部署,也可以選擇git clone一鍵獲取150+熱門AI模型的部署示例Demo,快速體驗不同模型的推理部署。

			# PP-YOLOE的部署 import fastdeploy as fd import cv2 model = fd.vision.detection.PPYOLOE("model.pdmodel", "model.pdiparams", "infer_cfg.yml") im = cv2.imread("test.jpg") result = model.predict(im) # YOLOv7的部署 import fastdeploy as fd import cv2 model = fd.vision.detection.YOLOv7("model.onnx") im = cv2.imread("test.jpg") result = model.predict(im)

FastDeploy部署不同模型


			# PP-YOLOE的部署 import fastdeploy as fd import cv2 option = fd.RuntimeOption() option.use_cpu() option.use_openvino_backend() # 一行命令切換使用 OpenVINO部署 model = fd.vision.detection.PPYOLOE("model.pdmodel", "model.pdiparams", "infer_cfg.yml", runtime_option=option) im = cv2.imread("test.jpg") result = model.predict(im)FastDeploy切換后端和硬件
						

極致高效:一鍵壓縮提速,預處理加速,端到端性能優化,提升AI算法產業落地

FastDeploy在吸收TensorRT、OpenVINO、Paddle Inference、Paddle Lite、ONNX Runtime、RKNN等高性能推理優勢的同時,通過端到端的推理優化解決了傳統推理引擎僅關心模型推理速度的問題,提升整體推理速度和性能。集成自動壓縮工具,在參數量大大減小的同時(精度幾乎無損),推理速度大幅提升。使用CUDA加速優化預處理和后處理模塊,將YOLO系列的模型推理加速整體從41ms優化到25ms。端到端的優化策略,徹底解決AI部署落地中的性能難題。更多性能優化,歡迎關注GitHub了解詳情。https://github.com/PaddlePaddle/FastDeployee0f9bea-5f1e-11ed-8abf-dac502259ad0.png

2

3步部署實戰篇,搶先看

1

CPU/GPU部署實戰(以YOLOv7為例)

安裝FastDeploy部署包,下載部署示例(可選,也可以三行API實現部署代碼)


			pip install fastdeploy-gpu-python -f https://www.paddlepaddle.org.cn/whl/fastdeploy.html git clone https://github.com/PaddlePaddle/FastDeploy.git cd examples/vision/detection/yolov7/python/
						

準備模型文件和測試圖片


			wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
						

CPU/GPU推理模型


			# CPU推理 python infer.py --model yolov7.onnx --image 000000014439.jpg --device cpu # GPU推理 python infer.py --model yolov7.onnx --image 000000014439.jpg --device gpu # GPU上使用TensorRT推理 python infer.py --model yolov7.onnx --image 000000014439.jpg --device gpu --use_trt True

推理結果示例:

ee3d56b6-5f1e-11ed-8abf-dac502259ad0.png

2

Jetson部署實戰(以YOLOv7為例)

安裝FastDeploy部署包,配置環境變量


			git clone https://github.com/PaddlePaddle/FastDeploy cd FastDeploy mkdir build && cd build cmake .. -DBUILD_ON_JETSON=ON -DENABLE_VISION=ON -DCMAKE_INSTALL_PREFIX=${PWD}/install make -j8 make install cd FastDeploy/build/install source fastdeploy_init.sh
						

準備模型文件和測試圖片


			wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
						

編譯推理模型


			cd examples/vision/detection/yolov7/cpp cmake .. -DFASTDEPLOY_INSTALL_DIR=${FASTDEPOLY_DIR} mkdir build && cd build make -j # 使用TensorRT推理(當模型不支持TensorRT時會自動轉成使用CPU推理) ./infer_demo yolov7s.onnx 000000014439.jpg 27s.onnx 000000014439.jpg 2

推理結果示例:

ee534ce6-5f1e-11ed-8abf-dac502259ad0.png

3

RK3588部署實戰以輕量化檢測網絡PicoDet為例)

安裝FastDeploy部署包,下載部署示例(可選,也可以三行API實現部署代碼)


			# 參考編譯文檔,完成FastDeploy編譯安裝 # 參考文檔鏈接:https://github.com/PaddlePaddle/FastDeploy/blob/develop/docs/cn/build_and_install/rknpu2.md # 下載部署示例代碼 git clone https://github.com/PaddlePaddle/FastDeploy.git cd examples/vision/detection/paddledetection/rknpu2/python
						

準備模型文件和測試圖片


			wget https://bj.bcebos.com/fastdeploy/models/rknn2/picodet_s_416_coco_npu.zip unzip -qo picodet_s_416_coco_npu.zip ## 下載Paddle靜態圖模型并解壓 wget https://bj.bcebos.com/fastdeploy/models/rknn2/picodet_s_416_coco_npu.zip unzip -qo picodet_s_416_coco_npu.zip # 靜態圖轉ONNX模型,注意,這里的save_file請和壓縮包名對齊 paddle2onnx --model_dir picodet_s_416_coco_npu --model_filename model.pdmodel --params_filename model.pdiparams --save_file picodet_s_416_coco_npu/picodet_s_416_coco_npu.onnx --enable_dev_version True python -m paddle2onnx.optimize --input_model picodet_s_416_coco_npu/picodet_s_416_coco_npu.onnx --output_model picodet_s_416_coco_npu/picodet_s_416_coco_npu.onnx --input_shape_dict "{'image':[1,3,416,416]}" # ONNX模型轉RKNN模型 # 轉換模型,模型將生成在picodet_s_320_coco_lcnet_non_postprocess目錄下 python tools/rknpu2/export.py --config_path tools/rknpu2/config/RK3588/picodet_s_416_coco_npu.yaml # 下載圖片 wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
						

推理模型


		python3 infer.py --model_file ./picodet _3588/picodet_3588.rknn --config_file ./picodet_3588/deploy.yaml --image images/000000014439.jpg
		審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    88

    文章

    34553

    瀏覽量

    276104
  • 人工智能
    +關注

    關注

    1805

    文章

    48833

    瀏覽量

    247336
  • 深度學習
    +關注

    關注

    73

    文章

    5557

    瀏覽量

    122576

原文標題:模型部署不再難!低門檻AI部署工具FastDeploy開源!

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    STM32F769是否可以部署邊緣AI

    STM32F769是否可以部署邊緣AI
    發表于 06-17 06:44

    RAKsmart服務器如何賦能AI開發與部署

    AI開發與部署的復雜性不僅體現在算法設計層面,更依賴于底層基礎設施的支撐能力。RAKsmart服務器憑借其高性能硬件架構、靈活的資源調度能力以及面向AI場景的深度優化,正在成為企業突破算力瓶頸、加速
    的頭像 發表于 04-30 09:22 ?204次閱讀

    Deepseek海思SD3403邊緣計算AI產品系統

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓練產品工具包,解決客戶低成本AI系統,針對差異化AI 應用場景,自己采集樣本數據,進
    發表于 04-28 11:05

    大象機器人攜手進迭時空推出 RISC-V 全棧開源六軸機械臂產品

    集成于同一硬件平臺。內置RISC-V AI核,接入ONNXRuntime加速框架,可快速部署Transformer、CNN等主流算法,實現視覺跟蹤、語音交互與自主決策的一體化應用。 門檻
    發表于 04-25 17:59

    AI端側部署開發(SC171開發套件V3)

    AI端側部署開發(SC171開發套件V3) 序列 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 工程源碼 1 Fibo AI Stack模型轉化指南------Docker Desktop環境操作
    發表于 04-16 18:30

    首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手

    基石。 Neuron Studio打造全流程一站式開發體驗,為AI應用開發按下加速鍵 AI 應用的開發瓶頸,從來都不是“點的問題”,而是“鏈的問題”:開發工具碎片化,調優過程靠手動,單模型分析效率
    發表于 04-13 19:52

    開源AI MPU

    ? (2) CORE-V(OpenHW Group) ? ? 特點 ?:開源RISC-V處理器家族,支持AI加速擴展(如DSP/向量指令)。 ? 代表IP ?:CV32E40P(支持自定義AI協處理器)。 ? 適用場景 ?:
    的頭像 發表于 04-02 17:44 ?1524次閱讀

    AI Agent 應用與項目實戰》閱讀心得3——RAG架構與部署本地知識庫

    繼續學習迪哥的AI Agent入門引導書籍。 LLM在落地應用中面臨著專業領域表現不足、知識更新困難、容易產生\"幻覺\"等問題,這些挑戰嚴重制約了AI技術在各行業的深入
    發表于 03-07 19:49

    如何部署OpenVINO?工具套件應用程序?

    編寫代碼并測試 OpenVINO? 工具套件應用程序后,必須將應用程序安裝或部署到生產環境中的目標設備。 OpenVINO?部署管理器指南包含有關如何輕松使用部署管理器將應用程序打包并
    發表于 03-06 08:23

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預測......

    合。未來,FPGA將更多地集成到系統級芯片(SoC)中,形成更高效的計算平臺。? 開發工具門檻降低:隨著高級綜合工具(HLS)和AI框架(如NVIDIA Modulus)的發展,FP
    發表于 03-03 11:21

    C#集成OpenVINO?:簡化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是一個用于優化和部署人工智能(AI)模型,提升AI推理性能的
    的頭像 發表于 02-17 10:03 ?1876次閱讀
    C#集成OpenVINO?:簡化<b class='flag-5'>AI</b>模型<b class='flag-5'>部署</b>

    添越智創基于 RK3588 開發板部署測試 DeepSeek 模型全攻略

    方法的優缺點與操作要點。 01-使用Ollama工具部署-便捷但有短板 Ollama 是一個開源的大模型服務工具,可以支持最新的deepseek模型,以及Llama 3,Phi 3,M
    發表于 02-14 17:42

    云端AI開發者工具怎么用

    云端AI開發者工具通常包括代碼編輯器、模型訓練平臺、自動化測試工具、代碼管理工具等。這些工具不僅降低了A
    的頭像 發表于 12-05 13:31 ?477次閱讀

    如何在STM32f4系列開發板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經過開發板處理器進行AI模型處理識別過后,告訴我識別結果,顯示在TFL
    發表于 11-18 09:39

    Arm推出GitHub平臺AI工具,簡化開發者AI應用開發部署流程

    專為 GitHub Copilot 設計的 Arm 擴展程序,可加速從云到邊緣側基于 Arm 平臺的開發。 Arm 原生運行器為部署云原生、Windows on Arm 以及云到邊緣側的 AI
    的頭像 發表于 10-31 18:51 ?3269次閱讀
    主站蜘蛛池模板: 成人午夜性视频欧美成人 | 天堂网www在线资源 天堂网www在线资源链接 | 精品久久久久久婷婷 | 色综久久 | 丁香五月缴情综合网 | 五月婷婷深爱 | 欧美三级在线视频 | 在线观看www妖精免费福利视频 | 日本欧美一区二区三区视频 | 国产精品美女自在线观看免费 | 国产成人精品三级在线 | 色婷婷影院在线视频免费播放 | 日本www色视频 | 亚洲综合激情六月婷婷在线观看 | 欧美黄色成人 | 分分操免费视频在线观看 | 国产精品国产三级国产在线观看 | 欧美女同在线观看 | 中国一级特黄高清免费的大片 | 久青草国产手机视频免费观看 | 91在线免费观看网站 | 免费一级片在线观看 | 久久成人福利视频 | 99久久久久国产精品免费 | 激情综合网五月激情 | 伊人久久狼人 | 5252色欧美在线激情 | 高清人人天天夜夜曰狠狠狠狠 | cijilu刺激 国产免费的 | 日本污全彩肉肉无遮挡彩色 | 久久精品国产亚洲5555 | 亚洲无吗在线视频 | abc欧美成人影院 | 男人操女人免费 | 国产精品午夜自在在线精品 | 四虎一影院区永久精品 | 午夜影院一级片 | 女人双腿搬开让男人桶 | 天天干天天玩 | 亚洲 丝袜 制服 欧美 另类 | 色婷婷成人网 |