在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

采用創(chuàng)新的FPGA 器件來實現(xiàn)更經(jīng)濟且更高能效的大模型推理解決方案

互聯(lián)網(wǎng)資訊 ? 來源:馬華1 ? 作者:馬華1 ? 2024-06-19 15:53 ? 次閱讀

作者:Bob Siller,Achronix半導(dǎo)體產(chǎn)品營銷總監(jiān)

摘要:本文根據(jù)完整的基準(zhǔn)測試,將Achronix Semiconductor公司推出的Speedster7t FPGAGPU解決方案進(jìn)行比較,在運行同一個Llama2 70B參數(shù)模型時,該項基于FPGA的解決方案實現(xiàn)了超越性的LLM推理處理。

采用 FPGA器件來加速LLM性能,在運行 Llama2 70B參數(shù)模型時,Speedster7t FPGA如何與 GPU解決方案相媲美?證據(jù)是令人信服的——Achronix Speedster7t FPGA通過提供計算能力、內(nèi)存帶寬和卓越能效的最佳組合,在處理大型語言模型(LLM)方面表現(xiàn)出色,這是當(dāng)今LLM復(fù)雜需求的基本要求。

像 Llama2這樣的 LLM的快速發(fā)展正在為自然語言處理(NLP)開辟一條新路線,有望提供比以往任何時候都更像人類的交互和理解。這些復(fù)雜的 LLM是創(chuàng)新的催化劑,推動了對先進(jìn)硬件解決方案的需求,以滿足其密集處理需求。

我們的基準(zhǔn)測試突出了 Speedster7t系列處理 Llama2 70B模型復(fù)雜性的能力,重點關(guān)注 FPGA和 LLM性能。這些測試(可根據(jù)要求提供結(jié)果)顯示了Achronix FPGA對于希望將LLM的強大功能用于其NLP應(yīng)用程序的開發(fā)人員和企業(yè)的潛力。這些基準(zhǔn)測試展示了 Speedster7t FPGA如何超越市場,提供無與倫比的性能,同時降低運營成本和環(huán)境影響。

Llama2 70B LLM運行在 Speedster7t FPGA上

2023年 7月,Microsoft和 Meta推出了他們的開源 LLM,Llama2開創(chuàng)了 AI驅(qū)動語言處理的新先例。Llama2采用多種配置設(shè)計,以滿足各種計算需求,包括 700億、130億和 700億個參數(shù),使其處于 LLM創(chuàng)新的最前沿。Achronix和我們的合作伙伴 Myrtle.ai對700億參數(shù)的Llama2模型進(jìn)行了深入的基準(zhǔn)分析,展示了使用Speedster7t FPGA進(jìn)行LLM加速的優(yōu)勢。

基準(zhǔn)測試結(jié)果:Speedster7t FPGA與業(yè)界領(lǐng)先的 GPU對比

我們在 Speedster7t FPGA上測試了 Llama2 70B模型的推理性能,并將其與領(lǐng)先的 GPU進(jìn)行了比較。該基準(zhǔn)測試是通過對輸入、輸出序列長度(1,128)和批處理大小 =1進(jìn)行建模來完成的。結(jié)果表明,Speedster7t AC7t1500在LLM處理中的有效性。

FPGA成本基于由 Speedster7t FPGA提供支持的 VectorPath加速卡的標(biāo)價。同樣,我們在此分析中使用了可比GPU卡的標(biāo)價。使用這些成本信息和每秒產(chǎn)生的輸出令牌數(shù)量,我們計算出基于 FPGA的解決方案的 $/token提高了 200%。除了成本優(yōu)勢外,在比較 FPGA和 GPU卡的相對功耗時,我們觀察到與基于 GPU的解決方案相比,產(chǎn)生的 kWh/token提高了 200%。這些優(yōu)勢表明 FPGA如何成為一種經(jīng)濟且能效高效的 LLM解決方案。

wKgZomZyje-AcBKyAAGXKpdnlrw187.png

面向 LLM的 FPGA:Speedster7t的優(yōu)勢

Achronix Speedster7t系列FPGA旨在優(yōu)化LLM操作,平衡LLM硬件的關(guān)鍵要求,包括:

高性能計算 –具有高性能計算能力的尖端硬件對于管理 LLM推理核心的復(fù)雜矩陣計算至關(guān)重要。

高帶寬內(nèi)存 –高效的 LLM推理依賴于高帶寬內(nèi)存,通過模型的網(wǎng)絡(luò)參數(shù)快速饋送數(shù)據(jù),而不會出現(xiàn)瓶頸。

擴展和適應(yīng)能力 –現(xiàn)代 LLM推理需要能夠隨著模型規(guī)模的增長而擴展并靈活適應(yīng) LLM架構(gòu)的持續(xù)進(jìn)步的硬件。

高能效處理 –可持續(xù)的 LLM推理需要硬件能夠最大限度地提高計算輸出,同時最大限度地降低能耗,從而降低運營成本和環(huán)境影響。

Speedster7t FPGA提供以下功能,以應(yīng)對實施現(xiàn)代 LLM處理解決方案的挑戰(zhàn):

計算性能–通過其靈活的機器學(xué)習(xí)處理器(MLP)模塊支持復(fù)雜的 LLM任務(wù)。

高 GDDR6 DRAM帶寬 –確保以 4 Tbps的內(nèi)存帶寬快速處理大型 LLM數(shù)據(jù)集。

大量的 GDDR6 DRAM容量 –可容納 Llama2等擴展的 LLM,每個 FPGA的容量為 32 GB。

用于 LLM的集成 SRAM –提供低延遲、高帶寬的存儲,具有 190 Mb的 SRAM,非常適合存儲激活和模型權(quán)重。

多種本機數(shù)字格式 –適應(yīng) LLM需求,支持塊浮點(BFP)、FP16、bfloat16等。

高效的片上數(shù)據(jù)傳輸 – 2D NoC超過 20 Tbps,簡化片上數(shù)據(jù)流量。

擴展橫向擴展帶寬 –支持多達(dá)32個112 Gbps SerDes滿足 LLM需求,增強連接性。

自適應(yīng)邏輯級可編程 –使用 690K 6輸入 LUT為 LLM的快速發(fā)展做好準(zhǔn)備。

針對 LLM推理優(yōu)化的 FPGA

在快速變化的人工智能和自然語言處理領(lǐng)域,使用 FPGA而不是 GPU來加速 LLM是一個相當(dāng)新的想法。該基準(zhǔn)測試展示了設(shè)計人員如何從使用Achronix的FPGA技術(shù)中受益。Achronix Speedster7t系列FPGA是這一變化的關(guān)鍵技術(shù),在高性能、高帶寬存儲器、易于擴展和電源效率之間實現(xiàn)了出色的平衡。

基于詳細(xì)的基準(zhǔn)分析,將 Speedster7t FPGA與領(lǐng)先的 GPU在處理 Llama2 70B模型方面的能力進(jìn)行比較,結(jié)果表明 Speedster7t FPGA能夠提供高水平的性能,同時大大降低運營成本和環(huán)境影響,突出了它在未來 LLM創(chuàng)建和使用中的重要作用。

如果希望進(jìn)一步了解如何使用FPGA器件來加速您的LLM程序,以及 FPGA加速 LLM解決方案的未來發(fā)展機遇。請聯(lián)系A(chǔ)chronix,獲取詳細(xì)的基準(zhǔn)測試結(jié)果,并幫助您確定Achronix FPGA技術(shù)如何加速您的LLM設(shè)計。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPG
    FPG
    +關(guān)注

    關(guān)注

    1

    文章

    54

    瀏覽量

    80254
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3046

    瀏覽量

    3870
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    優(yōu)化電機控制以提高能

    得益于更輕量化高效材料的應(yīng)用,以及熱絕緣和電絕緣技術(shù)的進(jìn)步。更輕巧的電機對汽車應(yīng)用尤為有利——既可通過減重提升能,又能將電機集成到更緊湊的空間。這些技術(shù)進(jìn)步的影響深遠(yuǎn),造就了能更高、性能更優(yōu)
    發(fā)表于 06-11 09:57

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預(yù)測......

    和并行計算能力,將AI模型(如CNN、LSTM、Transformer等)部署到FPGA上,實現(xiàn)高效的數(shù)據(jù)預(yù)處理、實時推理和后處理。? 定制化解決方
    發(fā)表于 03-03 11:21

    安科瑞基站能耗監(jiān)控解決方案,全面監(jiān)控、分析和優(yōu)化基站能

    解決的問題。安科瑞基站能理解決方案應(yīng)運而生,通過智能化技術(shù)實現(xiàn)對基站能源的全面監(jiān)控、分析和優(yōu)化,助力通信行業(yè)實現(xiàn)綠色低碳發(fā)展 審核編輯 黃宇
    的頭像 發(fā)表于 02-28 09:58 ?283次閱讀
    安科瑞基站能耗監(jiān)控<b class='flag-5'>解決方案</b>,全面監(jiān)控、分析和優(yōu)化基站能<b class='flag-5'>效</b>

    當(dāng)我問DeepSeek AI爆發(fā)時代的FPGA是否重要?答案是......

    提供了更高的能比,這對于構(gòu)建高效和可持續(xù)的AI解決方案至關(guān)重要。 ? 適應(yīng)不斷發(fā)展的AI算法:AI領(lǐng)域的技術(shù)發(fā)展迅速,算法不斷更新。FPGA的可編程性使其能夠快速適應(yīng)新的算法需求,而
    發(fā)表于 02-19 13:55

    中央空調(diào)系統(tǒng)能理解決方案

    中央空調(diào)系統(tǒng)能理解決方案
    的頭像 發(fā)表于 02-14 08:03 ?305次閱讀
    中央空調(diào)系統(tǒng)能<b class='flag-5'>效</b>管<b class='flag-5'>理解決方案</b>

    摩爾線程宣布成功部署DeepSeek蒸餾模型推理服務(wù)

    。 據(jù)悉,DeepSeek開源模型在多語言理解與復(fù)雜推理任務(wù)中一直表現(xiàn)出卓越的性能,其V3、R1等系列模型更是備受業(yè)界關(guān)注。而此次摩爾線程所實現(xiàn)
    的頭像 發(fā)表于 02-06 13:49 ?740次閱讀

    中國電信發(fā)布復(fù)雜推理模型TeleAI-t1-preview

    方面實現(xiàn)了顯著提升。 TeleAI-t1-preview采用了先進(jìn)的強化學(xué)習(xí)訓(xùn)練方法,并引入了探索、反思等思考范式,從而在數(shù)學(xué)推導(dǎo)、邏輯推理等復(fù)雜問題上展現(xiàn)了更高的準(zhǔn)確性。這一
    的頭像 發(fā)表于 02-05 13:57 ?581次閱讀

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    處理器,集成了3.2TOPs@INT8算力的高能NPU,提供強大的AI推理能力,能夠高效執(zhí)行復(fù)雜的視覺(CV)及大語言模型(LLM)任務(wù),滿足各類智能應(yīng)用場景的需求
    的頭像 發(fā)表于 01-17 18:48 ?612次閱讀
    新品| LLM630 Compute Kit,AI 大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>開發(fā)平臺

    IGBT模塊在頗具挑戰(zhàn)性的逆變器應(yīng)用中提供更高能

    背景:電力驅(qū)動的能雖高,但電動汽車、數(shù)據(jù)中心、熱泵等應(yīng)用仍需大量能源運行,因此提高能至關(guān)重要。 技術(shù)原理:IGBT(絕緣柵雙極晶體管)模塊是一種電力電子器件,它結(jié)合了MOSFET的
    的頭像 發(fā)表于 01-16 10:47 ?467次閱讀

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型
    的頭像 發(fā)表于 10-29 14:12 ?1868次閱讀
    <b class='flag-5'>FPGA</b>和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的應(yīng)用

    解決方案丨EasyGo新能源系統(tǒng)實時仿真應(yīng)用

    添加更多的教學(xué)或創(chuàng)新型的實驗內(nèi)容。 所有實驗均包含離線程序,控制算法實時程序,電路仿真實時程序等。其中,仿真?zhèn)?b class='flag-5'>模型采用實時仿真器,實現(xiàn)1微秒的高速仿真運行;控制側(cè)
    發(fā)表于 10-18 09:37

    使用TPS2116實現(xiàn)建筑自動化應(yīng)用的高能

    電子發(fā)燒友網(wǎng)站提供《使用TPS2116實現(xiàn)建筑自動化應(yīng)用的高能.pdf》資料免費下載
    發(fā)表于 09-25 11:12 ?0次下載
    使用TPS2116<b class='flag-5'>實現(xiàn)</b>建筑自動化應(yīng)用的<b class='flag-5'>高能</b><b class='flag-5'>效</b>

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    HyperAccel 是一家成立于 2023 年 1 月的韓國初創(chuàng)企業(yè),致力于開發(fā) AI 推理專用型半導(dǎo)體器件和硬件,最大限度提升推理工作負(fù)載的存儲器帶寬使用,并通過將此解決方案應(yīng)用于
    的頭像 發(fā)表于 09-18 09:37 ?791次閱讀
    AMD助力HyperAccel開發(fā)全新AI<b class='flag-5'>推理</b>服務(wù)器

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習(xí)

    今天學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收
    發(fā)表于 08-02 11:03

    基于瑞薩RZ/V2H AI微處理器的解決方案:高性能視覺AI系統(tǒng)

    RZ/V2H嵌入式AI微處理器,采用瑞薩最新的DRP-AI3技術(shù),可提供高達(dá)8TOPS(Dense模型)/80TOPS(sparse模型)的AI推理能力,以及10 TOPS/W的
    發(fā)表于 07-02 18:36 ?854次閱讀
    基于瑞薩RZ/V2H AI微處理器的<b class='flag-5'>解決方案</b>:高性能視覺AI系統(tǒng)
    主站蜘蛛池模板: 极品国产一区二区三区 | 激情五月婷婷基地 | 韩国三级理在线视频观看 | 伊人福利网 | 亚洲午夜久久久久影院 | 天天艹夜夜艹 | 免费看va| 国产免费高清视频在线观看不卡 | 天天插天天狠天天透 | 高清一区二区三区四区五区 | 天天做天天爽 | 欧美午夜性刺激在线观看免费 | 国产一级片免费看 | 天天爽夜夜爽每晚高澡 | 免费看一级视频 | 级毛片 | 手机看片自拍自拍自拍 | 色之综合天天综合色天天棕色 | 午夜小视频网站 | 九九热精品在线观看 | 又粗又长又色又爽视频 | 国产亚洲一区二区精品 | 27pao强力打造高清免费高 | 国模最新私拍视频在线观看 | 国产 麻豆 欧美亚洲综合久久 | 欧美一级艳片视频免费观看 | 一级黄色免费毛片 | 亚洲欧美成人 | 2021精品综合久久久久 | 性视频网址| 久久不射影院 | 欧美成人性色xxxxx视频大 | 黄 色 免费网 站 成 人 | 国产三级黄色毛片 | 欧美三级在线观看黄 | freesexvideo性残疾 | 日本不卡在线观看免费v | 久久天天躁夜夜躁狠狠 | 五月天婷婷电影 | 久青草国产在线视频_久青草免 | 欧美性色黄 |