91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA技術助力線上大模型推理

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 作者:NVIDIA英偉達 ? 2021-10-28 15:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著騰訊微信的發(fā)展,微信搜索也成為其越來越重要的功能,這個功能可以用來搜索微信內部的賬號、信息,以及搜索互聯網上的內容。微信搜索月活躍用戶數量達到五億以上。搜索業(yè)務當中使用了大量的神經網絡模型,包括自然語言理解、匹配排序等等,這些模型的訓練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應的解決方案都滿足了業(yè)務所需的延遲和吞吐要求。

微信搜索業(yè)務需要更高效平臺

微信搜索業(yè)務由多個子模塊構成,包括查詢理解、匹配、搜索排序等等。由于搜索的業(yè)務特點,這些任務對線上服務的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創(chuàng)新,很多大型復雜的神經網絡模型開始應用在這些任務上,比如BERT/Transformer等模型。

這些大模型需要的計算資源和業(yè)務上的高要求對推理端的軟硬件都是很大的挑戰(zhàn),必須針對具體的硬件做極致的優(yōu)化。而且對于大模型的推理,很多技術被探索、應用在這些場景上以便實現性能加速、節(jié)約資源,比如模型壓縮、剪枝、低精度計算等。這些技術可能會帶來精度下降等負面影響,限制了這些技術的廣泛應用。因此,如何在保證精度效果以及服務吞吐延遲需求的情況下,高效地對這些模型進行推理成為了業(yè)務上的巨大挑戰(zhàn)。NVIDIA GPU以及NVIDIA TensorRT給這一場景提供了解決方案。

NVIDIA技術助力線上大模型推理

為了滿足線上服務的需求,并且盡可能地節(jié)約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來進行線上大模型的推理。

線上服務對于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來做線上推理服務,利用NVIDIA基于TensorRT開源的BERT實現,可以很方便地在FP16精度下實現滿足需求的線上推理功能。這個方案在線上取得了很好的效果。

在此基礎上,微信搜索希望進一步加快推理速度,節(jié)約計算資源,以便更好地服務用戶,節(jié)約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構開始就有了INT8 Tensor Core,其計算吞吐量最高可達FP16精度的2倍。同時低精度推理跟其他的優(yōu)化方法也是正交的,可以同時使用其他技術比如剪枝、蒸餾等做進一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對INT8推理也有良好的支持。利用TensorRT的“校準”(Calibration)功能,能夠方便地將Float精度模型轉換為INT8低精度模型,實現低精度推理。通過低精度推理,模型的單次推理時間大大縮短。

通過“校準”來做模型轉換已經在很多計算機視覺模型上被驗證是十分有效的,并且其精度和推理性能都十分優(yōu)秀。然而對于像BERT一類的模型, “校準” 無法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發(fā)的基于PyTorch/TensorFlow的量化工具進行基于知識蒸餾的量化感知訓練(Quantization Aware Training)克服精度下降的問題。TensorRT對于導入量化感知訓練好的模型進行INT8低精度推理有著很好的支持。導入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務只需更換TensorRT構建好的引擎即可,極大地簡化了部署的流程。

通過這樣的方案,微信搜索中的一些關鍵任務,比如查詢理解等自然語言理解任務,可以在精度沒有損失的情況下,達到2-10倍的加速效果,平均單句推理時間達到了0.1ms。任務相應的計算資源節(jié)省了約70%。這個方案大大優(yōu)化了微信搜索業(yè)務的性能,降低了部署成本。

使用NVIDIA T4 GPU以及TensorRT推理引擎進行INT8低精度推理,極大提升了微信搜索的速度,進一步提升了用戶體驗,節(jié)約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:“我們已經實現了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務,包括Query理解和查詢結果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優(yōu)化方法,節(jié)省了70%的計算資源。”

責任編輯:haq

隨著騰訊微信的發(fā)展,微信搜索也成為其越來越重要的功能,這個功能可以用來搜索微信內部的賬號、信息,以及搜索互聯網上的內容。微信搜索月活躍用戶數量達到五億以上。搜索業(yè)務當中使用了大量的神經網絡模型,包括自然語言理解、匹配排序等等,這些模型的訓練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應的解決方案都滿足了業(yè)務所需的延遲和吞吐要求。

微信搜索業(yè)務需要更高效平臺

微信搜索業(yè)務由多個子模塊構成,包括查詢理解、匹配、搜索排序等等。由于搜索的業(yè)務特點,這些任務對線上服務的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創(chuàng)新,很多大型復雜的神經網絡模型開始應用在這些任務上,比如BERT/Transformer等模型。 這些大模型需要的計算資源和業(yè)務上的高要求對推理端的軟硬件都是很大的挑戰(zhàn),必須針對具體的硬件做極致的優(yōu)化。而且對于大模型的推理,很多技術被探索、應用在這些場景上以便實現性能加速、節(jié)約資源,比如模型壓縮、剪枝、低精度計算等。這些技術可能會帶來精度下降等負面影響,限制了這些技術的廣泛應用。因此,如何在保證精度效果以及服務吞吐延遲需求的情況下,高效地對這些模型進行推理成為了業(yè)務上的巨大挑戰(zhàn)。NVIDIA GPU以及NVIDIATensorRT給這一場景提供了解決方案。

NVIDIA技術助力線上大模型推理

為了滿足線上服務的需求,并且盡可能地節(jié)約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來進行線上大模型的推理。

線上服務對于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來做線上推理服務,利用NVIDIA基于TensorRT開源的BERT實現,可以很方便地在FP16精度下實現滿足需求的線上推理功能。這個方案在線上取得了很好的效果。

在此基礎上,微信搜索希望進一步加快推理速度,節(jié)約計算資源,以便更好地服務用戶,節(jié)約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構開始就有了INT8 Tensor Core,其計算吞吐量最高可達FP16精度的2倍。同時低精度推理跟其他的優(yōu)化方法也是正交的,可以同時使用其他技術比如剪枝、蒸餾等做進一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對INT8推理也有良好的支持。利用TensorRT的“校準”(Calibration)功能,能夠方便地將Float精度模型轉換為INT8低精度模型,實現低精度推理。通過低精度推理,模型的單次推理時間大大縮短。

通過“校準”來做模型轉換已經在很多計算機視覺模型上被驗證是十分有效的,并且其精度和推理性能都十分優(yōu)秀。然而對于像BERT一類的模型, “校準” 無法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發(fā)的基于PyTorch/TensorFlow的量化工具進行基于知識蒸餾的量化感知訓練(Quantization Aware Training)克服精度下降的問題。TensorRT對于導入量化感知訓練好的模型進行INT8低精度推理有著很好的支持。導入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務只需更換TensorRT構建好的引擎即可,極大地簡化了部署的流程。

通過這樣的方案,微信搜索中的一些關鍵任務,比如查詢理解等自然語言理解任務,可以在精度沒有損失的情況下,達到2-10倍的加速效果,平均單句推理時間達到了0.1ms。任務相應的計算資源節(jié)省了約70%。這個方案大大優(yōu)化了微信搜索業(yè)務的性能,降低了部署成本。 使用NVIDIA T4 GPU以及TensorRT推理引擎進行INT8低精度推理,極大提升了微信搜索的速度,進一步提升了用戶體驗,節(jié)約了公司成本。 微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:"我們已經實現了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務,包括Query理解和查詢結果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優(yōu)化方法,節(jié)省了70%的計算資源。"

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103550
  • NVIDIA
    +關注

    關注

    14

    文章

    5308

    瀏覽量

    106340
  • 模型
    +關注

    關注

    1

    文章

    3517

    瀏覽量

    50398

原文標題:NVIDIA TensorRT助力騰訊加速微信搜索

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    近日,NVIDIA 開源其物理 AI 平臺 NVIDIA Cosmos 中的關鍵模型——NVIDIA Cosmos Reason-1-7B。這款先進的多模態(tài)大
    的頭像 發(fā)表于 07-09 10:17 ?146次閱讀

    模型推理顯存和計算量估計方法研究

    隨著人工智能技術的飛速發(fā)展,深度學習大模型在各個領域得到了廣泛應用。然而,大模型推理過程對顯存和計算資源的需求較高,給實際應用帶來了挑戰(zhàn)。為了解決這一問題,本文將探討大
    發(fā)表于 07-03 19:43

    英偉達GTC2025亮點 NVIDIA推出Cosmos世界基礎模型和物理AI數據工具的重大更新

    模型可實現物理 AI 的預測、可控世界生成和推理。 兩款全新Blueprint為機器人和自動駕駛汽車后訓練提供海量物理 AI 合成數據生成技術。 1X、Agility Robotics
    的頭像 發(fā)表于 03-20 19:01 ?873次閱讀

    英偉達GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴展 AI 工廠中的 AI 推理模型。 作
    的頭像 發(fā)表于 03-20 15:03 ?641次閱讀

    NVIDIA發(fā)布全球首個開源人形機器人基礎模型Isaac GR00T N1

    NVIDIA 宣布推出一系列全新技術助力人形機器人開發(fā)。其中包括全球首個開源且完全可定制的基礎模型NVIDIA Isaac GR00T N
    的頭像 發(fā)表于 03-20 14:34 ?714次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎設施以及生成式 AI 服務首次實現集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式 AI 應用。 ? 此次
    發(fā)表于 03-19 15:24 ?355次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作<b class='flag-5'>助力</b>企業(yè)加速代理式 AI <b class='flag-5'>推理</b>

    NVIDIA 推出開放推理 AI 模型系列,助力開發(fā)者和企業(yè)構建代理式 AI 平臺

    月 18 日 —— ?NVIDIA 今日發(fā)布具有推理功能的開源 Llama Nemotron 模型系列,旨在為開發(fā)者和企業(yè)提供業(yè)務就緒型基礎,助力構建能夠獨立工作或以團隊形式完成復雜
    發(fā)表于 03-19 09:31 ?232次閱讀
    <b class='flag-5'>NVIDIA</b> 推出開放<b class='flag-5'>推理</b> AI <b class='flag-5'>模型</b>系列,<b class='flag-5'>助力</b>開發(fā)者和企業(yè)構建代理式 AI 平臺

    Qwen大模型助力開發(fā)低成本AI推理方案

    阿里巴巴的開源Qwen2.5模型近期在AI領域引發(fā)了廣泛關注。這一大模型的推出,為斯坦福大學與伯克利大學的研究人員提供了強大的技術支持,使他們能夠成功開發(fā)出低成本的AI推理模型。 據悉
    的頭像 發(fā)表于 02-12 09:19 ?633次閱讀

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?708次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺提高AI<b class='flag-5'>推理</b>性能

    NVIDIA推出面向RTX AI PC的AI基礎模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運行的基礎模型,為數字人、內容創(chuàng)作、生產力和開發(fā)提供強大助力
    的頭像 發(fā)表于 01-08 11:01 ?545次閱讀

    高效大模型推理綜述

    模型由于其在各種任務中的出色表現而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰(zhàn)。業(yè)內一直在努力開發(fā)旨在提高大模型
    的頭像 發(fā)表于 11-15 11:45 ?1449次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    NVIDIA助力提供多樣、靈活的模型選擇

    在本案例中,Dify 以模型中立以及開源生態(tài)的優(yōu)勢,為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton 推理服務器
    的頭像 發(fā)表于 09-09 09:19 ?930次閱讀

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型
    的頭像 發(fā)表于 08-23 15:48 ?1132次閱讀

    英偉達推出全新NVIDIA AI Foundry服務和NVIDIA NIM推理微服務

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM 推理微服務,與同樣剛推出的 Llama 3.1 系列開源
    的頭像 發(fā)表于 07-25 09:48 ?1055次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大模型
    的頭像 發(fā)表于 07-24 11:38 ?1799次閱讀
    主站蜘蛛池模板: 亚洲伊人tv综合网色 | 看真人一级毛多毛片 | 男人和女人做a免费视频 | 国产精品午夜剧场 | 天堂在线www天堂中文在线 | 久久国产精品99久久久久久牛牛 | 中国一级特黄真人毛片 | 末发育娇小性色xxxxx视频 | 人人乳乳香蕉大免费 | 不卡视频一区二区三区 | 亚洲一区二区三区免费在线观看 | 久久午夜精品视频 | 四虎影院的网址 | 美女爱爱网站 | 最新久久免费视频 | 狠狠色综合网站久久久久久久 | 妖精视频一区二区三区 | 在线视频精品免费 | 五月在线观看 | 亚洲欧洲色| 性欧美精品久久久久久久 | 久热操 | 巨尻在线观看 | 成年美女黄网站色大免费视频 | 午夜看一级特黄a大片黑 | 男人和女人做爽爽视频在线观看 | 狠狠狠色丁香婷婷综合久久五月 | 午夜特级毛片 | 久久夜色精品国产亚洲噜噜 | 天天干网 | 男女交性视频免费播放 | 狠狠操精品视频 | 日韩欧美一级 | 国产在线视频h | 中文字幕一区二区三区乱码aⅴ | 成人亚洲电影 | 久久亚洲国产成人精品性色 | 国产在线观看网址你懂得 | 亚洲男同tv | 天堂成人在线 | 禁漫画羞羞动漫入口 |