會話 AI 服務已經存在多年,但不論是聊天機器人,還是智能個人助理或搜索引擎,其理解能力很難達到與人類相當?shù)乃健?strong>主要瓶頸則在于超大型AI模型的實施部署無法實現(xiàn)。正因如此,不論是Google、Microsoft、Facebook,還是阿里巴巴、百度等,都在模型的部署方面孜孜以求。
NVIDIA于太平洋時間8月13日宣布重大突破:BERT訓練時間實現(xiàn)創(chuàng)紀錄的53分鐘,推理時間縮短至2毫秒,并構建了迄今為止同類型中最大的語言模型,使得實時會話 AI與用戶進行互動時更為自然。
超大模型面前,GPU再證強大可擴展性
BERT(Bidirectional Encoder Representations from Transformers)是世界上最先進的AI語言模型之一,Google于去年發(fā)布不久就刷爆AI業(yè)界。作為一種新型的語言模型,它只需一個額外的輸出層對預訓練BERT進行微調就可以滿足各種任務,而無需再對模型進行修改,實現(xiàn)了在11項NLP任務上取得突破進展。在對BERT模型進行訓練時,NVIDIA使用搭載了92臺 NVIDIA DGX-2H系統(tǒng)的 NVIDIA DGX SuperPOD運行該模型的大型版本,憑借1472個NVIDIA V100 GPU的強大性能,NVIDIA將BERT-Large的典型訓練時間從幾天縮短至僅僅 53 分鐘。
此外,NVIDIA還在單獨一臺NVIDIA DGX-2系統(tǒng)上執(zhí)行了BERT-Large 模型的訓練任務,用時也僅為 2.8天,充分體現(xiàn)了GPU在會話 AI 方面的可擴展性。
推理方面,借助于運行了NVIDIA TensorRT的NVIDIA T4 GPU,NVIDIA 執(zhí)行 BERT-Base SQuAD數(shù)據(jù)集的推理任務,用時僅為2.2毫秒,遠低于許多實時應用程序所需的10毫秒處理閾值;與使用高度優(yōu)化的CPU代碼時所測得的40多毫秒相比,有著顯著改進。
對此,NVIDIA 深度學習應用研究副總裁 Bryan Catanzaro 表示,“對于適用于自然語言的AI而言,大型語言模型正在為其帶來革新。NVIDIA 所取得的突破性工作成果加速了這些模型的創(chuàng)建,它們能夠幫助解決那些最為棘手的語言問題,讓我們距離實現(xiàn)真正的會話 AI 更進了一步。
NVIDIA BERT推理解決方案Faster Transformer宣布開源
開發(fā)者們對于更大模型的需求正在日益增長,NVIDIA 研究團隊基于Transformer構建并訓練了世界上最大的語言模型。Transformer是BERT的技術構件,正被越來越多的其他自然語言AI模型所使用。NVIDIA定制的模型包含83億個參數(shù),是BERT-Large的24 倍。2017年12月Google在論文“Attention is All You Need”中首次提出了Transformer,將其作為一種通用高效的特征抽取器。至今,Transformer已經被多種NLP模型采用,比如BERT以及上月發(fā)布重刷其記錄的XLNet,這些模型在多項NLP任務中都有突出表現(xiàn)。在NLP之外,TTS、ASR等領域也在逐步采用Transformer。可以預見,Transformer這個簡潔有效的網絡結構會像CNN和RNN一樣被廣泛采用。
不過,雖然Transformer在多種場景下都有優(yōu)秀表現(xiàn),但是在推理部署階段,其計算性能卻受到了巨大的挑戰(zhàn):以BERT為原型的多層Transformer模型,其性能常常難以滿足在線業(yè)務對于低延遲(保證服務質量)和高吞吐(考慮成本)的要求。以BERT-BASE為例,超過90%的計算時間消耗在12層Transformer的前向計算上。因此,一個高效的Transformer 前向計算方案,既可以為在線業(yè)務帶來降本增效的作用,也有利于以Transformer結構為核心的各類網絡在更多實際工業(yè)場景中落地。
NVIDIA GPU計算專家團隊針對Transformer推理提出的性能優(yōu)化方案Faster Transformer宣布開源,其底層基于CUDA和cuBLAS,是一個BERT Transformer 單層前向計算的高效實現(xiàn),其代碼簡潔明了,后續(xù)可以通過簡單修改支持多種Transformer結構。目前優(yōu)化集中在編碼器(encoder)的前向計算(解碼器decoder開發(fā)在后續(xù)特性規(guī)劃中),能夠助力于多種BERT的應用場景。Faster Transformer對外提供C++ API,TensorFlow OP 接口,以及TensorRT插件,并提供了相應的示例,用以支持用戶將其集成到不同的線上應用代碼中。
2021年15%的客服互動將通過AI完成
預計未來幾年,基于自然語言理解的 AI 服務將呈指數(shù)級增長。根據(jù)Juniper Research 的研究表明,在未來4年中,僅數(shù)字語音助手的數(shù)量就將有望從25 億攀升到 80 億。此外,據(jù)Gartner預計,到 2021 年,15%的客服互動都將通過AI完成,相比2017年將增長4倍。當前,全球數(shù)以百計的開發(fā)者都使用 NVIDIA 的 AI 平臺,來推進他們自己的語言理解研究并創(chuàng)建新的服務。
Microsoft Bing正在通過先進的 AI 模型和計算平臺,為客戶提供更好的搜索體驗。通過與 NVIDIA 密切合作,Bing 使用 NVIDIA GPU(Azure AI 基礎設施的一部分)進一步優(yōu)化了熱門自然語言模型 BERT 的推理功能,從而大幅提升了 Bing 于去年部署的排名搜索的搜索質量。與基于 CPU 的平臺相比,使用 Azure NVIDIA GPU 進行推理,延遲降低了一半,吞吐量提升了5倍。
多家初創(chuàng)公司(例如Clinc、Passage AI 和Recordsure等)正在使用 NVIDIA的AI平臺為銀行、汽車制造商、零售商、醫(yī)療服務提供商、旅行社和酒店等客戶構建先進的會話 AI 服務。據(jù)悉,中國市場也有相應的合作伙伴,日后將進一步公開。
會話AI才是真正意義上的人工智能的基本特征,不論是語言模型還是訓練、推理,底層技術的逐步強大,才是實現(xiàn)這一切的基礎。距離我們所期望的人工智能雖然還很遙遠,但技術上的每一次突破都值得記載。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
NVIDIA
+關注
關注
14文章
5308瀏覽量
106341 -
gpu
+關注
關注
28文章
4943瀏覽量
131203
發(fā)布評論請先 登錄
相關推薦
熱點推薦
軟通動力與中國聯(lián)通合作關系進一步深化
近日,軟通動力成功中標聯(lián)通(廣東)產業(yè)互聯(lián)網有限公司2025年軟件技術開發(fā)集中采購項目,中標份額位列榜首。這一突破性成果,不僅彰顯了軟通動力在數(shù)字技術服務領域的綜合實力,也標志著其與中國聯(lián)通合作關系的進一步深化。
NVIDIA虛擬GPU 18.0版本的亮點
生產力、安全性和性能。新版軟件可幫助企業(yè)和開發(fā)者進一步推動創(chuàng)新、改變工作流并更大限度地發(fā)揮加速計算的潛力。
使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發(fā)
NVIDIA GTC 推出新一代專業(yè)級 GPU 和 AI 賦能的開發(fā)者工具—同時,ChatRTX 更新現(xiàn)已支持 NVIDIA NIM,RTX
三星攜Galaxy AI和以軟件為中心的網絡技術亮相MWC 2025,進一步強化移動AI領先優(yōu)勢
3月3日-6日,世界移動通信大會(MWC2025)在巴塞羅那 Fira Gran Via展館舉行。本次大會上,三星電子進一步創(chuàng)新移動AI體驗,三星移動業(yè)務和網絡業(yè)務部門在現(xiàn)場展示了旗下包括下一

NVIDIA RTX AI PC如何解鎖AI智能體
生成式 AI 改變了人們將創(chuàng)意變?yōu)楝F(xiàn)實的方式。代理式 AI 進一步推進了這一進程 — 利用復雜的自主因果推理和迭代式規(guī)劃來幫助解決復雜的多步驟問題。

NVIDIA推出多個生成式AI模型和藍圖
NVIDIA 宣布推出多個生成式 AI 模型和藍圖,將 NVIDIA Omniverse 一體化進一步擴展至物理
臺積電擬進一步收購群創(chuàng)工廠擴產先進封裝
據(jù)半導體設備公司的消息人士透露,臺積電正計劃進一步擴大其在先進封裝領域的產能。今年8月,臺積電已經收購了群創(chuàng)位于南科的5.5代LCD面板廠,而現(xiàn)在,市場消息稱臺積電有意收購更多群創(chuàng)在南科附近的工廠。
英特爾將進一步分離芯片制造和設計業(yè)務
面對公司成立50年來最為嚴峻的挑戰(zhàn),英特爾宣布了一項重大戰(zhàn)略調整,旨在通過進一步分離芯片制造與設計業(yè)務,重塑競爭力。這一決策標志著英特爾在應對行業(yè)變革中的堅定步伐。
RFTOP進一步擴充波導同軸轉換器產品線
近日高品質微波毫米波器件供應商RFTOP(頻優(yōu)微波)進一步擴充波導同軸轉換器產品線,新增了同軸公頭全系列新品,覆蓋1.0mm、1.85mm、2.4mm、2.92mm、SMA、SMP等同軸公頭,涵蓋

iPhone 15在美國市場需求進一步減弱
7月19日,國際媒體披露了市場研究機構CIRP的最新報告,揭示了iPhone 15系列在美國市場的受歡迎程度相較于前代iPhone 14系列有所下滑。這一趨勢在CIRP最新發(fā)布的第二季度數(shù)據(jù)中得到了進一步印證,顯示iPhone 15系列的市場需求正經歷持續(xù)放緩。
評論