在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

測試時擴展技術(shù)如何實現(xiàn)AI推理

NVIDIA英偉達 ? 來源:NVIDIA英偉達 ? 2025-02-15 14:06 ? 次閱讀

擴展定律描述了 AI 系統(tǒng)性能如何隨訓(xùn)練數(shù)據(jù)、模型參數(shù)或計算資源規(guī)模的增加而提高。

如同許多眾所周知的自然經(jīng)驗法則(例如,凡事有起必有落,或每一個作用力都有一個大小相等、方向相反的反作用力)一樣,在 AI 領(lǐng)域,大家一直認為,計算、訓(xùn)練數(shù)據(jù)和參數(shù)越多,AI 模型就越好。

然而 AI 發(fā)展至今,已經(jīng)需要三條不同定律來描述不同計算資源配置如何影響模型性能。這三條 AI 擴展定律分別是預(yù)訓(xùn)練擴展、后訓(xùn)練擴展和測試時擴展(也稱為長思考),它們共同反映了這一領(lǐng)域隨著技術(shù)的發(fā)展而演變的過程,而這些技術(shù)能夠在各種日益復(fù)雜的 AI 用例中使用更多的計算資源。

特別是最近興起的測試時擴展技術(shù)(在推理階段應(yīng)用更多計算資源以提高準確性),使 AI 推理模型成為了可能。這種新的大語言模型 (LLM) 能通過執(zhí)行多次推理來解決復(fù)雜問題,同時描述執(zhí)行任務(wù)所需的步驟。然而,測試時擴展需要大量計算資源來支持 AI 推理,這將進一步推動對加速計算的需求。

什么是預(yù)訓(xùn)練擴展?

預(yù)訓(xùn)練擴展是最初的 AI 發(fā)展定律。該定律表明:通過提升訓(xùn)練數(shù)據(jù)集規(guī)模、模型參數(shù)數(shù)量,以及增加計算資源,開發(fā)者能夠?qū)崿F(xiàn)模型智能水平和準確率的可預(yù)測性提升。

數(shù)據(jù)、模型大小和計算這三個要素相互關(guān)聯(lián)。根據(jù)研究論文所述的預(yù)訓(xùn)練擴展定律,大模型被輸入的數(shù)據(jù)越多,其整體性能越高。為此,開發(fā)者必須擴大計算規(guī)模,而這又進一步推動了對強大加速計算資源的需求,以運行這些大規(guī)模訓(xùn)練的工作負載。

預(yù)訓(xùn)練擴展定律帶來了具有突破性能力的大模型,同時也激發(fā)了模型架構(gòu)方面的重大創(chuàng)新,包括十億和萬億參數(shù)級 transformer 模型、混合專家模型和新分布式訓(xùn)練技術(shù)的興起,而這些都對計算資源提出了極高要求。

隨著人類不斷產(chǎn)生大量的多模態(tài)數(shù)據(jù),包括文本、圖像、音頻視頻傳感器信息,這些豐富的數(shù)據(jù)將被用于訓(xùn)練強大的未來 AI 模型,因此預(yù)訓(xùn)練擴展定律適用性還將持續(xù)。

預(yù)訓(xùn)練擴展是 AI 發(fā)展的基本原則,它建立了模型、數(shù)據(jù)集和計算

與 AI 收益之間的聯(lián)系。混合專家是 AI 訓(xùn)練中的一種常用模型架構(gòu)。

什么是后訓(xùn)練擴展?

預(yù)訓(xùn)練大型基礎(chǔ)模型并非易事,它需要大量的投入、專業(yè)的技術(shù)專家以及數(shù)據(jù)集。然而,一旦一家公司預(yù)訓(xùn)練并發(fā)布了一個模型,就進而降低了使用 AI 的門檻,讓其他人能夠使用他們預(yù)訓(xùn)練的模型作為基礎(chǔ),并根據(jù)自己的應(yīng)用進行調(diào)整。

這種后訓(xùn)練的過程進一步增加了企業(yè)和更廣泛開發(fā)者社區(qū)對加速計算的持續(xù)需求。流行的開源模型可以衍生出數(shù)百甚至數(shù)千個在眾多領(lǐng)域中訓(xùn)練過的變體模型。

為各種用例開發(fā)這些衍生模型可能需要比預(yù)訓(xùn)練原始基礎(chǔ)模型多出約 30 倍的計算資源。

后訓(xùn)練技術(shù)可以進一步提高模型針對企業(yè)所需用例的專業(yè)性和相關(guān)性。預(yù)訓(xùn)練就像是送 AI 模型去學校學習基礎(chǔ)技能,而后訓(xùn)練則是教會模型適用于其預(yù)期工作的技能。例如,大語言模型在經(jīng)過后訓(xùn)練后可以處理諸如觀點分析或翻譯等任務(wù),或者理解醫(yī)療或法律等特定領(lǐng)域的術(shù)語。

后訓(xùn)練擴展定律認為,可以使用微調(diào)、剪枝、量化、蒸餾、強化學習和合成數(shù)據(jù)增強等技術(shù),進一步提高預(yù)訓(xùn)練模型的性能,包括計算效率、準確性或領(lǐng)域?qū)I(yè)性。

微調(diào)是使用額外的訓(xùn)練數(shù)據(jù)為特定領(lǐng)域和應(yīng)用定制 AI 模型。可以使用的訓(xùn)練數(shù)據(jù)包括企業(yè)內(nèi)部數(shù)據(jù)集,或成對的樣本模型輸入和輸出。

蒸餾需要一對 AI 模型,即一個大型、復(fù)雜的教師模型和一個輕量級的學生模型。在最常見的蒸餾技術(shù)(稱為離線蒸餾)中,學生模型會學習模仿預(yù)訓(xùn)練教師模型的輸出。

強化學習 (RL)是一種機器學習技術(shù),它通過獎勵模型來訓(xùn)練一個智能體,使其做出與特定用例相符的決策。智能體的目標是在與環(huán)境交互的過程中,隨著時間推移最大化累積獎勵。例如,一個聊天機器人 LLM 可以通過用戶的“點贊”反應(yīng)獲得正向強化。這種技術(shù)被稱為基于人類反饋的強化學習 (RLHF)。另一種更新的技術(shù)是基于 AI 反饋的強化學習 (RLAIF)。它使用 AI 模型的反饋來指導(dǎo)學習過程,從而簡化后訓(xùn)練的優(yōu)化工作。

Best-of-n 采樣會從語言模型中生成多個輸出,并根據(jù)獎勵模型選擇其中獎勵分數(shù)最高的輸出。這種方法通常用于在不修改模型參數(shù)的情況下提升 AI 的輸出質(zhì)量,是強化學習微調(diào)的一種替代方案。

搜索方法會在選擇最終輸出之前探索一系列潛在的決策路徑。這種后訓(xùn)練的技術(shù)可以通過迭代的方式逐步改進模型的響應(yīng)。

為了支持后訓(xùn)練,開發(fā)者可以使用合成數(shù)據(jù)增強或補充他們的微調(diào)數(shù)據(jù)集。使用由 AI 生成的數(shù)據(jù)去補充現(xiàn)實世界的數(shù)據(jù)集,可以使模型更善于處理原始訓(xùn)練數(shù)據(jù)中罕見或缺失的邊緣案例。

后訓(xùn)練擴展使用微調(diào)、剪枝和蒸餾等技術(shù)完善預(yù)訓(xùn)練模型,以提高效率和任務(wù)相關(guān)性。

什么是測試時擴展?

LLM 可以對輸入的提示作出快速響應(yīng)。雖然該過程非常適合回答簡單問題,但在面對用戶提出的復(fù)雜問題時可能就不那么奏效了。而回答復(fù)雜問題是代理式 AI 工作負載的一項基本能力,這項工作要求 LLM 在得出答案之前先對問題進行推理。

這與大多數(shù)人類的思維方式類似——當被問到像 2 加 2 這樣的問題時,我們可以立即給出答案,不需要涉及加法或整數(shù)的基本原理。但如果當場被要求制定一個能讓公司利潤增長 10% 的商業(yè)計劃,那么我們就需要對各種選項進行推理,并給出一個多步驟的答案。

測試時擴展也被稱為長思考,發(fā)生在推理過程中。傳統(tǒng)的 AI 模型會根據(jù)用戶提示快速生成一個一次性的答案,而使用測試時擴展技術(shù)的模型則會在推理過程中進行額外的計算,以便在得出最佳答案之前對多個備選答案進行推理。

在為開發(fā)者生成復(fù)雜、定制化的代碼等任務(wù)中,這種 AI 推理過程可能需要花費數(shù)分鐘甚至數(shù)小時——與傳統(tǒng) LLM 的單次推理相比,對于復(fù)雜的查詢,它可能需要超過 100 倍的計算資源,而傳統(tǒng) LLM 在第一次嘗試時幾乎不可能正確回答復(fù)雜問題。

這種測試時計算的能力使 AI 模型能夠探索問題的不同解決方案,并將復(fù)雜的請求分解為多個步驟。在許多情況下,它們在推理時會向用戶展示自己的工作。研究發(fā)現(xiàn),在向 AI 模型提供需要多個推理和規(guī)劃步驟的開放式提示時,測試時擴展能夠提高回答的質(zhì)量。

測試時計算方法有很多,包括:

思維鏈提示:將復(fù)雜的問題分解為一系列較簡單的步驟。

多數(shù)表決抽樣:針對相同的提示生成多個回答,然后選擇出現(xiàn)頻率最高的答案作為最終輸出。

搜索:探索并評估響應(yīng)的樹狀結(jié)構(gòu)中存在的多條路徑。

像 Best-of-n 采樣這樣的后訓(xùn)練方法也可以在推理階段用于“長思考”,以優(yōu)化響應(yīng),使其更符合人類偏好或其他目標。

測試時擴展通過進行額外的計算改進 AI 推理,從而增強模型的推理能力,使模型能夠有效解決復(fù)雜的多步驟問題。

測試時擴展如何實現(xiàn) AI 推理

測試時計算的興起使 AI 能夠?qū)?fù)雜的開放式用戶查詢作出有理有據(jù)、實用且更加準確的回答。這種能力對于自主代理式 AI 和物理 AI 應(yīng)用所期望的詳細、多步驟推理任務(wù)至關(guān)重要,為各個行業(yè)的用戶提供了能夠加快工作速度的超強助手,提高效率和生產(chǎn)力。

在醫(yī)療領(lǐng)域,模型可以使用測試時擴展技術(shù)分析海量數(shù)據(jù),推斷疾病的發(fā)展情況,并根據(jù)藥物分子的化學結(jié)構(gòu)預(yù)測新療法可能引發(fā)的潛在并發(fā)癥。它們還可以梳理臨床試驗數(shù)據(jù)庫,以便推薦符合個人疾病特征的治療方案,同時分享其對不同研究利弊的推理過程。

在零售和供應(yīng)鏈物流領(lǐng)域,“長思考”可以助力解決短期運營挑戰(zhàn)和長期戰(zhàn)略目標所需的復(fù)雜決策。通過推理技術(shù),企業(yè)能夠同時預(yù)測和評估多種場景,從而降低風險并應(yīng)對可擴展性挑戰(zhàn)。這有助于實現(xiàn)更準確的需求預(yù)測、優(yōu)化供應(yīng)鏈路線以及做出與組織可持續(xù)發(fā)展目標一致的采購決策。

全球各地的企業(yè)都可以使用該技術(shù)起草詳細的商業(yè)計劃,生成復(fù)雜的代碼來調(diào)試軟件,或優(yōu)化送貨卡車、倉庫機器人和自動駕駛出租車的行駛路線。

AI 推理模型正在迅速發(fā)展。過去幾周內(nèi),OpenAI o1-mini 和 o3-mini、DeepSeek R1 以及谷歌 DeepMind 的 Gemini 2.0 Flash Thinking 相繼推出,預(yù)計很快還會有更多的新模型推出。

這些模型需要大量的計算資源進行推理以及正確回答復(fù)雜問題,這意味著企業(yè)需要擴展其加速計算資源來提供支持復(fù)雜問題解答、編碼和多步驟規(guī)劃的下一代 AI 推理工具。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5087

    瀏覽量

    103906
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31844

    瀏覽量

    270639
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3372

    瀏覽量

    49299

原文標題:如何通過擴展定律推動更智能、更強大的 AI

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?242次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    生成式AI推理技術(shù)、市場與未來

    OpenAI o1、QwQ-32B-Preview、DeepSeek R1-Lite-Preview的相繼發(fā)布,預(yù)示著生成式AI研究正從預(yù)訓(xùn)練轉(zhuǎn)向推理(Inference),以提升AI邏輯推理
    的頭像 發(fā)表于 01-20 11:16 ?465次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>推理</b><b class='flag-5'>技術(shù)</b>、市場與未來

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    LLM630LLM推理,視覺識別,可開發(fā),靈活擴展···LLM630ComputeKit是一款AI大語言模型推理開發(fā)平臺,專為邊緣計算和智能交互應(yīng)用而設(shè)計。該套件的主板搭載愛芯AX63
    的頭像 發(fā)表于 01-17 18:48 ?210次閱讀
    新品| LLM630 Compute Kit,<b class='flag-5'>AI</b> 大語言模型<b class='flag-5'>推理</b>開發(fā)平臺

    智譜GLM-Zero深度推理模型預(yù)覽版正式上線

    近日,智譜公司宣布其深度推理模型GLM-Zero的初代版本——GLM-Zero-Preview已正式上線。這款模型是智譜首個基于擴展強化學習技術(shù)訓(xùn)練的推理模型,標志著智譜在
    的頭像 發(fā)表于 01-02 10:55 ?191次閱讀

    李開復(fù):中國擅長打造經(jīng)濟實惠的AI推理引擎

    10月22日上午,零一萬物公司的創(chuàng)始人兼首席執(zhí)行官李開復(fù)在與外媒的交流中透露,其公司旗下的Yi-Lightning(閃電模型)在推理成本上已實現(xiàn)了顯著優(yōu)勢,比OpenAI的GPT-4o模型低了31倍。他強調(diào),中國擅長打造經(jīng)濟實惠的AI
    的頭像 發(fā)表于 10-22 16:54 ?426次閱讀

    開箱即用,AISBench測試展示英特爾至強處理器的卓越推理性能

    。 中國電子技術(shù)標準化研究院賽西實驗室依據(jù)國家標準《人工智能服務(wù)器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關(guān)要求,使用AISBench?2.0測試工具,完成了第五代英特爾至強可擴展處理器的
    的頭像 發(fā)表于 09-06 15:33 ?445次閱讀
    開箱即用,AISBench<b class='flag-5'>測試</b>展示英特爾至強處理器的卓越<b class='flag-5'>推理</b>性能

    摩爾線程攜手東華軟件完成AI大模型推理測試與適配

    近日,摩爾線程與東華軟件云筑AI創(chuàng)新中心宣布,雙方已完成大模型推理測試與適配。依托摩爾線程的全功能GPU國產(chǎn)算力,東華軟件打造安全可信的基于私有化大模型的“智多型(A.I.Cogniflex)”
    的頭像 發(fā)表于 07-31 10:51 ?877次閱讀

    如何基于OrangePi?AIpro開發(fā)AI推理應(yīng)用

    香橙派AIpro開發(fā)板采用昇騰AI技術(shù)路線,接口豐富且具有強大的可擴展性,提供8/20TOPS澎湃算力,可廣泛使用于AI邊緣計算、深度視覺學習及視頻流
    的頭像 發(fā)表于 06-04 14:23 ?636次閱讀
    如何基于OrangePi?AIpro開發(fā)<b class='flag-5'>AI</b><b class='flag-5'>推理</b>應(yīng)用

    AI推理,和訓(xùn)練有什么不同?

    。借助AI技術(shù),能否實現(xiàn)精準預(yù)測呢?小明思考再三,總結(jié)出了可能影響女神是否接受邀請的變量:是否節(jié)假日,天氣不好,太熱/太冷了,心情不好,生病了,另有他約,家里來親戚
    的頭像 發(fā)表于 04-29 08:06 ?210次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>,和訓(xùn)練有什么不同?

    開發(fā)者手機 AI - 目標識別 demo

    識別demo: JS實現(xiàn)UI界面的功能; Native接口及實現(xiàn)主要為JS提供接口進行AI推理。通過Native方式完成推理的前處理、
    發(fā)表于 04-11 16:14

    UL Procyon AI 發(fā)布圖像生成基準測試,基于Stable Diffusion

    UL去年發(fā)布的首個Windows版Procyon AI推理基準測試,以計算機視覺工作負載評估AI推理性能。新推出的圖像生成
    的頭像 發(fā)表于 03-25 16:16 ?992次閱讀

    擴展包x-cube-ai實現(xiàn)SVM支持向量機嗎?

    擴展包x-cube-ai實現(xiàn)SVM支持向量機嘛
    發(fā)表于 03-22 07:26

    AI推理框架軟件ONNX Runtime正式支持龍架構(gòu)

    近日,知名AI推理框架開源社區(qū)ONNX Runtime正式發(fā)布支持龍架構(gòu)的版本1.17.0。
    的頭像 發(fā)表于 03-12 12:23 ?654次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>框架軟件ONNX Runtime正式支持龍架構(gòu)

    NanoEdge AI技術(shù)原理、應(yīng)用場景及優(yōu)勢

    NanoEdge AI 是一種基于邊緣計算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)的核心思想是將數(shù)據(jù)處理和分析從云端轉(zhuǎn)移到設(shè)備本身,從而減少數(shù)據(jù)傳輸延遲、降低
    發(fā)表于 03-12 08:09

    Groq LPU崛起,AI芯片主戰(zhàn)場從訓(xùn)練轉(zhuǎn)向推理

    人工智能推理的重要性日益凸顯,高效運行端側(cè)大模型及AI軟件背后的核心技術(shù)正是推理。不久的未來,全球芯片制造商的主要市場將全面轉(zhuǎn)向人工智能推理
    的頭像 發(fā)表于 02-29 16:46 ?1914次閱讀
    主站蜘蛛池模板: 亚洲xx网站| 日本视频一区在线观看免费 | 黄www色| aaa在线观看 | 国产毛片农村妇女aa板 | 人人草97| 女人被两根一起进3p在线观看 | 欧美在线精品一区二区三区 | 人人爱天天做夜夜爽毛片 | 免费h视频网站 | 天天干天天看 | 免费视频不卡一区二区三区 | 国产美女主播在线观看 | 国产精品一区二区综合 | 乱人伦精品一区二区 | 色五阁| 天天操天天插天天射 | 亚洲欧美视频一区二区 | 亚色最新网址 | 香蕉视频啪啪 | 最近2018中文字幕免费看在线 | 久久精品隔壁老王影院 | 男人操女人的网站 | 在线播放你懂得 | 久久97精品久久久久久久看片 | 一区二区三区四区在线不卡高清 | 好黄好猛好爽好痛的视频 | 亚洲色图综合 | 男男之h啪肉np文 | 亚洲一区二区三区免费视频 | 伊人色强在线网 | 亚洲成熟人网站 | 亚洲视频三区 | 欧美性幼 | 九九热re | 丁香久久婷婷 | 欧美成人天天综合天天在线 | 久久亚洲国产午夜精品理论片 | 国产三级在线观看 | 男人性天堂 | 久久中文字幕一区二区 |