在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA T4 GPU和TensorRT加速微信搜索速度

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-21 10:53 ? 次閱讀

案例簡介

騰訊公司利用NVIDIA TensorRT推理引擎的INT8推理能力和基于知識蒸餾的QAT訓練,大大加速了微信中的搜索動能,節省了約70%的計算資源。本案例主要應用到NVIDIA T4 GPU和TensorRT。

客戶簡介及應用背景

隨著騰訊微信的發展,微信搜索也成為其越來越重要的功能,這個功能可以用來搜索微信內部的賬號、信息,以及搜索互聯網上的內容。微信搜索月活躍用戶數量達到五億以上。搜索業務當中使用了大量的神經網絡模型,包括自然語言理解、匹配排序等等,這些模型的訓練和推理都大量依賴于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相應的解決方案都滿足了業務所需的延遲和吞吐要求。

客戶挑戰

微信搜索業務由多個子模塊構成,包括查詢理解、匹配、搜索排序等等。由于搜索的業務特點,這些任務對線上服務的延遲和吞吐都十分敏感。然而在最近幾年,隨著算力的提升以及算法的創新,很多大型復雜的神經網絡模型開始應用在這些任務上,比如BERT/Transformer等模型。

這些大模型需要的計算資源和業務上的高要求對推理端的軟硬件都是很大的挑戰,必須針對具體的硬件做極致的優化。而且對于大模型的推理,很多技術被探索、應用在這些場景上以便實現性能加速、節約資源,比如模型壓縮、剪枝、低精度計算等。這些技術可能會帶來精度下降等負面影響,限制了這些技術的廣泛應用。因此,如何在保證精度效果以及服務吞吐延遲需求的情況下,高效地對這些模型進行推理成為了業務上的巨大挑戰。NVIDIA GPU以及NVIDIA TensorRT給這一場景提供了解決方案。

應用方案

為了滿足線上服務的需求,并且盡可能地節約成本,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來進行線上大模型的推理。

線上服務對于吞吐和延遲有很高的要求,微信搜索選擇使用NVIDIA T4 GPU以及TensorRT推理引擎來做線上推理服務,利用NVIDIA基于TensorRT開源的BERT實現,可以很方便地在FP16精度下實現滿足需求的線上推理功能。這個方案在線上取得了很好的效果。

在此基礎上,微信搜索希望進一步加快推理速度,節約計算資源,以便更好地服務用戶,節約成本。低精度推理成為了很好的選擇。NVIDIA GPU從圖靈(Turing)架構開始就有了INT8 Tensor Core,其計算吞吐量最高可達FP16精度的2倍。同時低精度推理跟其他的優化方法也是正交的,可以同時使用其他技術比如剪枝、蒸餾等做進一步提升。微信搜索線上大量使用NVIDIA T4 GPU,非常適合使用INT8推理。而且TensorRT對INT8推理也有良好的支持。利用TensorRT的“校準”(Calibration)功能,能夠方便地將Float精度模型轉換為INT8低精度模型,實現低精度推理。通過低精度推理,模型的單次推理時間大大縮短。

通過“校準”來做模型轉換已經在很多計算機視覺模型上被驗證是十分有效的,并且其精度和推理性能都十分優秀。然而對于像BERT一類的模型, “校準” 無法使得精度和性能都完全令人滿意。因此,騰訊搜索使用了NVIDIA開發的基于PyTorch/TensorFlow的量化工具進行基于知識蒸餾的量化感知訓練(Quantization Aware Training)克服精度下降的問題。TensorRT對于導入量化感知訓練好的模型進行INT8低精度推理有著很好的支持。導入這樣的模型,不僅得到了最佳性能,而且精度沒有損失,線上服務只需更換TensorRT構建好的引擎即可,極大地簡化了部署的流程。

通過這樣的方案,微信搜索中的一些關鍵任務,比如查詢理解等自然語言理解任務,可以在精度沒有損失的情況下,達到2-10倍的加速效果,平均單句推理時間達到了0.1ms。任務相應的計算資源節省了約70%。這個方案大大優化了微信搜索業務的性能,降低了部署成本。

使用效果及影響

使用NVIDIA T4 GPU以及TensorRT推理引擎進行INT8低精度推理,極大提升了微信搜索的速度,進一步提升了用戶體驗,節約了公司成本。

微信搜索的Hui Liu、Raccoon Liu和Dick Zhu表示:”我們已經實現了基于TensorRT和INT8 QAT的模型推理加速,以加速微信搜索的核心任務,包括Query理解和查詢結果排序等。我們用GPU+TensorRT的解決方案突破了NLP模型復雜性的限制,BERT/Transformer可以完全集成到我們的解決方案中。此外,我們利用卓越的性能優化方法,節省了70%的計算資源。”

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5274

    瀏覽量

    105950
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4923

    瀏覽量

    130829
  • 計算機
    +關注

    關注

    19

    文章

    7638

    瀏覽量

    90390
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Love
    的頭像 發表于 06-12 15:37 ?413次閱讀
    使用<b class='flag-5'>NVIDIA</b> Triton和<b class='flag-5'>TensorRT</b>-LLM部署TTS應用的最佳實踐

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發

    NVIDIA GTC 推出新一代專業級 GPU 和 AI 賦能的開發者工具—同時,ChatRTX 更新現已支持 NVIDIA NIM,RTX Remix 正式結束測試階段,本月的 NVIDIA
    的頭像 發表于 03-28 09:59 ?544次閱讀

    使用NVIDIA CUDA-X庫加速科學和工程發展

    NVIDIA GTC 全球 AI 大會上宣布,開發者現在可以通過 CUDA-X 與新一代超級芯片架構的協同,實現 CPU 和 GPU 資源間深度自動化整合與調度,相較于傳統加速計算架構,該技術可使計算工程工具運行
    的頭像 發表于 03-25 15:11 ?605次閱讀

    NVIDIA技術助力Pantheon Lab數字人實時交互解決方案

    本案例中,Pantheon Lab(萬想科技)專注于數字人技術解決方案,通過 NVIDIA 技術實現數字人實時對話與客戶互動交流。借助 NVIDIA GPUNVIDIA
    的頭像 發表于 01-14 11:19 ?601次閱讀

    借助NVIDIA GPU提升魯班系統CAE軟件計算效率

    本案例中魯班系統高性能 CAE 軟件利用 NVIDIA 高性能 GPU,實現復雜產品的快速仿真,加速產品開發和設計迭代,縮短開發周期,提升產品競爭力。
    的頭像 發表于 12-27 16:24 ?611次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發并開源的一種新型推測解碼技術,該技術現在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發表于 12-25 17:31 ?659次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    Batching、Paged KV Caching、量化技術 (FP8、INT4 AWQ、INT8 SmoothQuant 等) 以及更多功能,確保您的 NVIDIA GPU 能發揮出卓越的推理性能。
    的頭像 發表于 12-17 17:47 ?766次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    許可證模型的加速令牌或SIMULIA統一許可證模型的SimUnit令牌或積分授權。 4. GPU計算的啟用 - 交互式模擬:通過加速對話框啟用,打開求解器對話框,點擊“
    發表于 12-16 14:25

    NVIDIA TensorRT-LLM Roadmap現已在GitHub上公開發布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現已在 GitHub 上公開發布!
    的頭像 發表于 11-28 10:43 ?660次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現已在GitHub上公開發布

    《算力芯片 高性能 CPUGPUNPU 架構分析》第3篇閱讀心得:GPU革命:從圖形引擎到AI加速器的蛻變

    對卷積核優化的思考。 GPU的存儲體系采用了獨特的倒金字塔結構,在我看來這是其計算性能的關鍵。大容量寄存器設計破解了傳統馮諾依曼架構的內存瓶頸,合并訪存機制巧妙解決了內存帶寬限制。NVIDIA GPU
    發表于 11-24 17:12

    NVIDIA加速計算引入Polars

    Polars 近日發布了一款由 RAPIDS cuDF 驅動的全新 GPU 引擎,該引擎可將 NVIDIA GPU 上的 Polars 工作流速度最高提速 13 倍,使數據科學家僅在一
    的頭像 發表于 11-20 10:03 ?669次閱讀
    將<b class='flag-5'>NVIDIA</b><b class='flag-5'>加速</b>計算引入Polars

    TensorRT-LLM低精度推理優化

    本文將分享 TensorRT-LLM 中低精度量化內容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具 NVIDIA
    的頭像 發表于 11-19 14:29 ?1153次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度推理優化

    AMD與NVIDIA GPU優缺點

    NVIDIA的RTX系列顯卡以其強大的光線追蹤和DLSS技術領先于市場。例如,NVIDIA的RTX 3080在4K分辨率下提供了卓越的游戲體驗,而AMD的Radeon RX 6800 XT雖然在某些游戲中表現接近,但在光線追蹤
    的頭像 發表于 10-27 11:15 ?2230次閱讀

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學計算、數據分析、機器學習等復雜計算任務的軟硬件結合系統。
    的頭像 發表于 10-25 09:23 ?557次閱讀

    NVIDIA Nemotron-4 340B模型幫助開發者生成合成訓練數據

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式 AI
    的頭像 發表于 09-06 14:59 ?675次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-<b class='flag-5'>4</b> 340B模型幫助開發者生成合成訓練數據
    主站蜘蛛池模板: 色系视频在线观看免费观看 | 中文字幕一区二区三区四区 | 亚洲综合一 | 国产伦精品一区二区三区在线观看 | 久操视屏| 曰韩欧美 | 免费国产高清精品一区在线 | 日本三级s级在线播放 | 日本一区视频在线播放 | 欧美性猛交xxxx黑人喷水 | 黄在线看 | 欧美在线精品一区二区三区 | 国产成人毛片视频不卡在线 | 亚洲国产精品国产自在在线 | 淫五月 | 人人爱人人射 | 久久久久九九精品影院 | 亚洲swag精品自拍一区 | 羞羞漫画喷水漫画yy漫画 | 欧美极品在线视频 | 最近2018中文字幕免费视频 | 欧美色欧美色 | 婷婷亚洲视频 | 亚洲欧美成人综合久久久 | 在线视频免费播放 | 五月天婷婷在线观看视频 | 午夜免费福利片 | 免费视频网站在线看视频 | 一级特黄aa大片免费播放视频 | 欧美成人全部费免网站 | 亚洲第一精品夜夜躁人人爽 | 欧美精品一区二区三区在线播放 | 成人黄色三级 | 35pao强力打造| 免费在线黄网站 | 日日夜夜天天操 | 成人a毛片视频免费看 | 色婷婷影院在线视频免费播放 | 天堂电影在线观看免费入口 | 老色批影院 | 91久娇草 |