在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英特爾OpenVINO?將全力助力極視角AI推理加速

英特爾物聯網 ? 來源:極市平臺 ? 作者:鄧富城博士 極視角 ? 2021-09-22 16:19 ? 次閱讀

在模型開發和部署方面,極市平臺集成了最新版本的OpenVINO工具,助力開發者在最小化代碼修改的條件下加速AI算法在各類生產環境中規模化部署應用,尤其是在Intel豐富的硬件資源平臺上(CPUs、iGPUs、VPUs等等)。

本文重點介紹了極視角與英特爾開發人員共同研發的OpenVINO最新功能,無縫集成TensorFlow框架,對于熟悉TensorFlow開發的開發者來說,在原有代碼的基礎上只需要添加幾行簡單代碼就可以無痛實現模型精度不變的前提下推理加速1.34倍以上,避免了顯式地進行OpenVINO轉換以及推理部分代碼的重新編寫,大大簡化OpenVINO工具的使用,加速AI算法在生產環境中的應用部署。

無痛實現 1.34 倍加速推理

我們先來看看本文方法在模型推理加速上具體表現:

可以看到,在同一測試環境下,OpenVINO 與 TensorFlow 的集成實現了 1.34 的加速幾何平均值,同時,模型的準確性保持不變:

具體實操

OpenVINO 與 TensorFlow 的集成專為使用 OpenVINO 工具套件的開發人員而設計——通過最少的代碼修改來提高推理應用程序的性能。該集成為提高TensorFlow 兼容性提供以 OpenVINO 工具套件內聯優化和所需運行時,并加速了各種英特爾芯片上多類AI模型的推理。

通過將以下兩行代碼添加到 Python 代碼或 Jupyter Notebooks 中,就可以極大地加速你的 TensorFlow 模型的推理:

import openvino_tensorflowopenvino_tensorflow.set_backend(‘《backend_name》’)

OpenVINO 與 TensorFlow 的集成通過將 TensorFlow 圖巧妙地劃分為多個子圖,再將這些子圖分派到 TensorFlow 運行時或 OpenVINO 運行時,從而實現最佳加速推理。

# 工作流概述

同時,通過 openvino_tensorflow ,我們能夠非常輕松地使用不同硬件:

更多的詳細信息可以前往 Github:

https://github.com/openvinotoolkit/openvino_tensorflow

# 在Extreme Vision notebooks中集成

在Extreme Vision IDE中可以直接將OpenVINO與TensorFlow集成。如下圖所示,你只需要簡單地導入openvino_tensorflow,即可無縫加速 Jupyter Notebook 中在CPU上推理的所有 TensorFlow模型,同時可以繼續使用標準的TensorFlow API,而無需代碼重構。

對推理加速更深的討論

從前文對推理加速上的結果展示中,我們可以看到通過添加 2 行代碼激活OpenVINO與 TensorFlow 的集成后,可以獲得最高達 10 倍的推理加速。但也有個別模型出現了異常情況,如Mask RCNN Atrous 和 SSD Mobilenet V2,因此我們對如何獲得最佳性能進行了討論:

#01

OPENVINO_TF_MIN_NONTRIVIAL_NODES 變量

該變量設置了聚類中可以存在的最小操作數。如果操作數小于指定的數量,則聚類將回退到 TensorFlow。默認情況是根據總圖大小計算的,但除非手動設置,否則不能小于 6。另外,我們將此變量設置為 15 和 22 來觀察模型進一步的性能增強,并以此得到了最終的最佳推理性能。因此,在具體的開發應用中應通過默認值或實驗來確定能夠為模型提供最佳性能的變量最佳值。

#02

凍結 Keras 模型以獲得最佳性能

一些 Keras 模型可能包含訓練操作,這會導致 TensorFlow 產生控制流。由于 OpenVINO 工具套件不支持這些操作,因此圖形可能會被劃分為較小的聚類。因此,在使用 OpenVINO 與 TensorFlow 的集成時,凍結模型可以避免這些操作并提高整體性能。

使用 Keras API 的 DenseNet121 推理應用代碼示例:

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.applications.densenet import DenseNet121# Add two lines of code to enable OpenVINO integration with TensorFlowimport openvino_tensorflowopenvino_tensorflow.set_backend("CPU")


model = DenseNet121(weights='imagenet')


# Run the inference using Keras API  model.predict(input_data)

下面是凍結和運行 Keras 模型的一個示例代碼,通過這種方式,我們能夠優化使用 OpenVINO 與 TensorFlow 的集成實現的最佳性能。

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.applications.densenet import DenseNet121from tensorflow.python.framework.convert_to_constants import convert_variables_to_constants_v2# Add two lines of code to enable OpenVINO integration with TensorFlowimport openvino_tensorflowopenvino_tensorflow.set_backend("CPU")


model = DenseNet121(weights='imagenet')


# Freeze the model first to achieve the best performance# using OpenVINO integration with TensorFlow    full_model = tf.function(lambda x: self.model(x))full_model = full_model.get_concrete_function(tf.TensorSpec(model.inputs[0].shape,model.inputs[0].dtype, name=model.inputs[0].name))frozen_func = convert_variables_to_constants_v2(full_model)frozen_func.graph.as_graph_def()session = tf.compat.v1.Session(graph=frozen_func.graph)prob_tensor = frozen_func.graph.get_tensor_by_name(full_model.outputs[0].name)


# Run the inference on the frozen modelsession.run(prob_tensor, feed_dict={full_model.inputs[0].name : input_data})

#03

Mask RCNN Atrous和SSD Mobilenet

如上文的結果所示,OpenVINO與TensorFlow的集成可以加速大多數TensorFlow模型,但由于一些模型具有OpenVINO與TensorFlow集成尚不完全支持的工作組件(例如運算符、層等),如Mask RCNN Atrous和SSD Mobilenet V2等一些模型仍在開發完善中。

為了擴大模型覆蓋范圍以及進一步提升性能,極視角技術團隊將會繼續測試和完善OpenVINO與TensorFlow的集成,以幫助更多使用TensorFlow開發人員能夠更好地應用極市平臺。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • API
    API
    +關注

    關注

    2

    文章

    1558

    瀏覽量

    63440
  • SSD
    SSD
    +關注

    關注

    21

    文章

    2943

    瀏覽量

    119050
  • AI
    AI
    +關注

    關注

    87

    文章

    33996

    瀏覽量

    274891
  • 代碼
    +關注

    關注

    30

    文章

    4886

    瀏覽量

    70184

原文標題:英特爾OpenVINO? 助力極視角AI推理加速

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    直擊Computex2025:英特爾重磅發布新一代GPU,圖形和AI性能躍升3.4倍

    5月19日,在Computex 2025上,英特爾發布了最新全新圖形處理器(GPU)和AI加速器產品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發表于 05-20 12:27 ?3771次閱讀
    直擊Computex2025:<b class='flag-5'>英特爾</b>重磅發布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    英特爾發布全新GPU,AI和工作站迎來新選擇

    Pro B50 GPU,搭載了為AI推理和專業工作站量身定制的配置,擴展了英特爾銳炫Pro產品系列。 英特爾 ? Gaudi 3 AI
    發表于 05-20 11:03 ?1190次閱讀

    英特爾借助開放生態系統,加速邊緣AI創新

    英特爾推出全新AI邊緣系統、邊緣AI套件和開放邊緣平臺軟件,賦能合作伙伴AI無縫融入現有基礎設施 ?
    發表于 03-21 11:31 ?129次閱讀
    <b class='flag-5'>英特爾</b>借助開放生態系統,<b class='flag-5'>加速</b>邊緣<b class='flag-5'>AI</b>創新

    為什么無法檢測到OpenVINO?工具套件中的英特爾?集成圖形處理單元?

    在 Ubuntu* Desktop 22.04 上安裝了 英特爾? Graphics Driver 版本并OpenVINO? 2023.1。 運行 python 代碼: python -c
    發表于 03-05 08:36

    請問OpenVINO?工具套件英特爾?Distribution是否與Windows? 10物聯網企業版兼容?

    無法在基于 Windows? 10 物聯網企業版的目標系統上使用 英特爾? Distribution OpenVINO? 2021* 版本推斷模型。
    發表于 03-05 08:32

    安裝OpenVINO?適用于Raspberry Pi64位操作系統的工具套件2022.3.1,配置英特爾?NCS2時出錯怎么解決?

    安裝OpenVINO?適用于 Raspberry Pi* 64 位操作系統的工具套件 2022.3.1。 配置英特爾? NCS2時出錯: CMake Error at CMakeLists.txt
    發表于 03-05 07:27

    英特爾?獨立顯卡與OpenVINO?工具套件結合使用時,無法運行推理怎么解決?

    使用英特爾?獨立顯卡與OpenVINO?工具套件時無法運行推理
    發表于 03-05 06:56

    英特爾OpenVINO 2025.0正式發布

    生成式AI(GenAI)在模型質量與應用范圍上持續爆發式增長,DeepSeek 等頂尖模型已引發行業熱議,這種勢頭預計將在 2025年延續。本次更新聚焦性能提升、更多生成式AI 模型的支持,并針對英特爾神經處理單元(NPU)推出
    的頭像 發表于 02-21 10:20 ?614次閱讀
    <b class='flag-5'>英特爾</b><b class='flag-5'>OpenVINO</b> 2025.0正式發布

    英特爾Gaudi 2D AI加速助力DeepSeek Janus Pro模型性能提升

    Pro模型進行了深度優化。 這一優化舉措使得AI開發者能夠以更低的成本和更高的效率實現復雜任務的部署與優化。英特爾Gaudi 2D AI加速器通過其卓越的計算能力和高度優化的軟件棧,
    的頭像 發表于 02-10 11:10 ?519次閱讀

    英特爾發布全新企業AI一體化方案

    近日,英特爾正式推出了全新的企業AI一體化方案。該方案以英特爾至強處理器和英特爾Gaudi 2D AI
    的頭像 發表于 12-03 11:20 ?496次閱讀

    英特爾助力百度智能云千帆大模型平臺加速LLM推理

    “大模型在各行業的廣泛應用驅動了新一輪產業革命,也凸顯了在AI算力方面的瓶頸。通過攜手英特爾釋放英特爾 至強 可擴展處理器的算力潛力,我們為用戶提供了高性能、靈活、經濟的算力基礎設施方案,結合千帆
    的頭像 發表于 11-25 16:59 ?818次閱讀
    <b class='flag-5'>英特爾</b><b class='flag-5'>助力</b>百度智能云千帆大模型平臺<b class='flag-5'>加速</b>LLM<b class='flag-5'>推理</b>

    英特爾發布Gaudi3 AI加速器,押注低成本優勢挑戰市場

    英特爾近期震撼發布了專為AI工作負載設計的Gaudi3加速器,這款新芯片雖在速度上不及英偉達熱門型號H100與H200 GPU,但英特爾巧妙地
    的頭像 發表于 09-26 16:16 ?1081次閱讀

    從運動員到開發者: 英特爾以開放式AI系統應對多重挑戰

    英特爾通過開放、易獲取的AI系統和生態協作,以創新的方式為運動員提供支持,并助力企業客戶創造更多可能。 今日,英特爾分享了與國際奧林匹克委員會(IOC)的一些合作細節,并披露了其以行業
    的頭像 發表于 07-25 09:28 ?440次閱讀
    從運動員到開發者: <b class='flag-5'>英特爾</b>以開放式<b class='flag-5'>AI</b>系統應對多重挑戰

    英特爾CEO:AI時代英特爾動力不減

    英特爾CEO帕特·基辛格堅信,在AI技術的飛速發展之下,英特爾的處理器仍能保持其核心地位。基辛格公開表示,摩爾定律仍然有效,而英特爾在處理器和芯片技術上的創新能力
    的頭像 發表于 06-06 10:04 ?629次閱讀

    英特爾助力京東云用CPU加速AI推理,以大模型構建數智化供應鏈

    英特爾助力京東云用CPU加速AI推理,以大模型構建數智化供應鏈
    的頭像 發表于 05-27 11:50 ?758次閱讀
    <b class='flag-5'>英特爾</b><b class='flag-5'>助力</b>京東云用CPU<b class='flag-5'>加速</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>,以大模型構建數智化供應鏈
    主站蜘蛛池模板: 四虎必出精品亚洲高清 | 欧美色视频超清在线观看 | 日本亚洲高清乱码中文在线观看 | 免费看日本大片免费 | 久久亚洲国产欧洲精品一 | 久久久这里有精品999 | 国产小视频在线看 | 成人在线一区二区 | 午夜影剧院 | 国产成人精品一区二区仙踪林 | 色综合狠狠操 | 性欧美高清 | 男女一级大黄 | 午夜视频在线观看www中文 | 巨乳色网址 | 91伊人网 | 男啪女色黄无遮挡免费视频 | 久久精品re| 久久精品亚洲青青草原 | 色多多在线播放 | 国产精品www夜色影视 | 91大神在线精品视频一区 | 夜夜夜操操操 | 日一日操一操 | 在线天堂网| 亚洲专区一区 | 国产三级精品最新在线 | 一区二区免费看 | 四虎网址在线观看 | 亚洲午夜久久久久久91 | 日本不卡1| 久久综合欧美成人 | 亚洲高清免费观看 | 欧美人与z0xxxx另类 | 激情五月激情综合 | 亚洲成a人一区二区三区 | 日本黄页网址 | 思思99re66在线精品免费观看 | 在线观看免费高清 | 午夜爱爱毛片xxxx视频免费看 | 特级中国aaa毛片 |