在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英特爾一系列AI解決方案,為L(zhǎng)lama 2大模型提供實(shí)力之選

looger123 ? 來(lái)源:looger123 ? 作者:looger123 ? 2023-07-24 19:31 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

英特爾廣泛的AI硬件組合及開(kāi)放的軟件環(huán)境,為Meta發(fā)布的Llama 2模型提供了極具競(jìng)爭(zhēng)力的選擇,進(jìn)一步助力大語(yǔ)言模型的普及,推動(dòng)AI發(fā)展惠及各行各業(yè)。

大語(yǔ)言模型(LLM)在生成文本、總結(jié)和翻譯內(nèi)容、回答問(wèn)題、參與對(duì)話以及執(zhí)行復(fù)雜任務(wù)(如解決數(shù)學(xué)問(wèn)題或推理)方面表現(xiàn)出的卓越能力,使其成為最有希望規(guī)模化造福社會(huì)的AI技術(shù)之一。大語(yǔ)言模型有望解鎖更豐富的創(chuàng)意和洞察,并激發(fā)AI社區(qū)推進(jìn)技術(shù)發(fā)展的熱情。

Llama 2旨在幫助開(kāi)發(fā)者、研究人員和組織構(gòu)建基于生成式AI的工具和體驗(yàn)。Meta發(fā)布了多個(gè)Llama 2的預(yù)訓(xùn)練和微調(diào)版本,擁有70億、130億和700億三種參數(shù)。通過(guò)Llama 2,Meta在公司的各個(gè)微調(diào)模型中采用了三項(xiàng)以安全為導(dǎo)向的核心技術(shù):安全的有監(jiān)督微調(diào)、安全的目標(biāo)文本提取以及安全的人類反饋強(qiáng)化學(xué)習(xí)(RLHF)。這些技術(shù)相結(jié)合,使Meta得以提高安全性能。隨著越來(lái)越廣泛的使用,人們將能夠以透明、公開(kāi)的方式不斷識(shí)別并降低生成有害內(nèi)容的風(fēng)險(xiǎn)。

英特爾致力于通過(guò)提供廣泛的硬件選擇和開(kāi)放的軟件環(huán)境,推動(dòng)AI的發(fā)展與普及。英特爾提供了一系列AI解決方案,為AI社區(qū)開(kāi)發(fā)和運(yùn)行Llama 2等模型提供了極具競(jìng)爭(zhēng)力和極具吸引力的選擇。英特爾豐富的AI硬件產(chǎn)品組合與優(yōu)化開(kāi)放的軟件相結(jié)合,為應(yīng)對(duì)算力挑戰(zhàn)提供了可行的方案。

英特爾提供了滿足模型的開(kāi)發(fā)和部署的AI優(yōu)化軟件。開(kāi)放生態(tài)系統(tǒng)是英特爾得天獨(dú)厚的戰(zhàn)略優(yōu)勢(shì),在AI領(lǐng)域亦是如此。我們致力于培育一個(gè)充滿活力的開(kāi)放生態(tài)系統(tǒng)來(lái)推動(dòng)AI創(chuàng)新,其安全、可追溯、負(fù)責(zé)任以及遵循道德,這對(duì)整個(gè)行業(yè)至關(guān)重要。此次發(fā)布的大模型進(jìn)一步彰顯了我們的核心價(jià)值觀——開(kāi)放,為開(kāi)發(fā)人員提供了一個(gè)值得信賴的選擇。Llama 2模型的發(fā)布是我們行業(yè)向開(kāi)放式AI發(fā)展轉(zhuǎn)型邁出的重要一步,即以公開(kāi)透明的方式推動(dòng)創(chuàng)新并助力其蓬勃發(fā)展。

--李煒

英特爾軟件與先進(jìn)技術(shù)副總裁

人工智能和分析部門總經(jīng)理


-- Melissa Evers

英特爾軟件與先進(jìn)技術(shù)副總裁

兼執(zhí)行戰(zhàn)略部總經(jīng)理

在Llama 2發(fā)布之際,我們很高興地分享70億和130億參數(shù)模型的初始推理性能測(cè)試結(jié)果。這些模型在英特爾AI產(chǎn)品組合上運(yùn)行,包括Habana?Gaudi?2 深度學(xué)習(xí)加速器、第四代英特爾?至強(qiáng)?可擴(kuò)展處理器、英特爾?至強(qiáng)?CPU Max系列和英特爾?數(shù)據(jù)中心GPU Max系列。我們?cè)诒疚闹蟹窒淼男阅苤笜?biāo)是我們當(dāng)前軟件提供的“開(kāi)箱即用”的性能,并有望在未來(lái)的軟件中進(jìn)一步提升。我們還支持700億參數(shù)模型,并將很快分享最新相關(guān)信息。

Habana?Gaudi?2 深度學(xué)習(xí)加速器

Habana Gaudi2旨在為用戶提供高性能、高能效的訓(xùn)練與推理,尤其適用于諸如Llama和Llama 2的大語(yǔ)言模型。Gaudi2加速器具備96GB HBM2E的內(nèi)存容量,可滿足大語(yǔ)言模型的內(nèi)存需求并提高推理性能。Gaudi2配備Habana?SynapseAI?軟件套件,該套件集成了對(duì)PyTorch和DeepSpeed的支持,以用于大語(yǔ)言模型的訓(xùn)練和推理。此外,SynapseAI近期開(kāi)始支持HPU Graphs和DeepSpeed推理,專門針對(duì)時(shí)延敏感度高的推理應(yīng)用。Gaudi2還將進(jìn)行進(jìn)一步的軟件優(yōu)化,包括計(jì)劃在2023年第三季度支持FP8數(shù)據(jù)類型。此優(yōu)化預(yù)計(jì)將在執(zhí)行大語(yǔ)言模型時(shí)大幅提高性能、吞吐量,并有效降低延遲。

大語(yǔ)言模型的性能需要靈活敏捷的可擴(kuò)展性,來(lái)突破服務(wù)器內(nèi)以及跨節(jié)點(diǎn)間的網(wǎng)絡(luò)瓶頸。每張Gaudi2芯片集成了21個(gè)100Gbps以太網(wǎng)接口,21個(gè)接口專用于連接服務(wù)器內(nèi)的8顆Gaudi2,該網(wǎng)絡(luò)配置有助于提升服務(wù)器內(nèi)外的擴(kuò)展性能。

在近期發(fā)布的MLPerf基準(zhǔn)測(cè)試中,Gaudi2在大語(yǔ)言模型上展現(xiàn)了出色的訓(xùn)練性能,包括在384個(gè)Gaudi2加速器上訓(xùn)練1750億參數(shù)的GPT-3模型所展現(xiàn)的結(jié)果。Gaudi2經(jīng)過(guò)驗(yàn)證的高性能使其成為L(zhǎng)lama和Llama 2模型訓(xùn)練和推理的高能效解決方案。

圖1顯示了70億參數(shù)和130億參數(shù)Llama 2模型的推理性能。模型分別在一臺(tái)Habana Gaudi2設(shè)備上運(yùn)行,batch size=1,輸出token長(zhǎng)度256,輸入token長(zhǎng)度不定,使用BF16精度。報(bào)告的性能指標(biāo)為每個(gè)token的延遲(不含第一個(gè))。該測(cè)試使用optimum-habana文本生成腳本在Llama模型上運(yùn)行推理。optimum-habana庫(kù)能夠幫助簡(jiǎn)化在Gaudi加速器上部署此類模型的流程,僅需極少的代碼更改即可實(shí)現(xiàn)。如圖1所示,對(duì)于128至2000輸入token,在70億參數(shù)模型上Gaudi2的推理延遲范圍為每token 9.0-12.2毫秒,而對(duì)于130億參數(shù)模型,范圍為每token 15.5-20.4毫秒1。

wKgZomS-YSuAHdVsAAEBZ5B_BE0302.png

圖1基于Habana Gaudi2,70億和130億參數(shù)Llama 2模型的推理性能

若想訪問(wèn)Gaudi2,可按照此處(https://developer.habana.ai/intel-developer-cloud/)在英特爾開(kāi)發(fā)者云平臺(tái)上注冊(cè)一個(gè)實(shí)例,或聯(lián)系超微(Supermicro)了解Gaudi2服務(wù)器基礎(chǔ)設(shè)施。

英特爾?至強(qiáng)?可擴(kuò)展處理器

第四代英特爾至強(qiáng)可擴(kuò)展處理器是一款通用計(jì)算處理器,具有英特爾?高級(jí)矩陣擴(kuò)展(英特爾?AMX)的AI加速功能。具體而言,該處理器的每個(gè)核心內(nèi)置了BF16和INT8通用矩陣乘(GEMM)加速器,以加速深度學(xué)習(xí)訓(xùn)練和推理工作負(fù)載。此外,英特爾?至強(qiáng)?CPU Max系列,每顆CPU提供64GB的高帶寬內(nèi)存(HBM2E),兩顆共128GB,由于大語(yǔ)言模型的工作負(fù)載通常受到內(nèi)存帶寬的限制,因此,該性能對(duì)于大模型來(lái)說(shuō)極為重要。

目前,針對(duì)英特爾至強(qiáng)處理器的軟件優(yōu)化已升級(jí)到深度學(xué)習(xí)框架中,并可用于PyTorch*、TensorFlow*、DeepSpeed*和其它AI庫(kù)的默認(rèn)發(fā)行版。英特爾主導(dǎo)了torch.compile CPU后端的開(kāi)發(fā)和優(yōu)化,這是PyTorch 2.0的旗艦功能。與此同時(shí),英特爾還提供英特爾?PyTorch擴(kuò)展包*(Intel?Extension for PyTorch*),旨在PyTorch官方發(fā)行版之前,盡早、及時(shí)地為客戶提供英特爾CPU的優(yōu)化。

第四代英特爾至強(qiáng)可擴(kuò)展處理器擁有更高的內(nèi)存容量,支持在單個(gè)插槽內(nèi)實(shí)現(xiàn)適用于對(duì)話式AI和文本摘要應(yīng)用的、低延遲的大語(yǔ)言模型執(zhí)行。對(duì)于BF16和INT8,該結(jié)果展示了單個(gè)插槽內(nèi)執(zhí)行1個(gè)模型時(shí)的延遲。英特爾?PyTorch擴(kuò)展包*支持SmoothQuant,以確保INT8精度模型具有良好的準(zhǔn)確度。

考慮到大語(yǔ)言模型應(yīng)用需要以足夠快的速度生成token,以滿足讀者較快的閱讀速度,我們選擇token延遲,即生成每個(gè)token所需的時(shí)間作為主要的性能指標(biāo),并以快速人類讀者的閱讀速度(約為每個(gè)token 100毫秒)作為參考。如圖2、3所示,對(duì)于70億參數(shù)的Llama2 BF16模型和130億參數(shù)的Llama 2 INT8模型,第四代英特爾至強(qiáng)單插槽的延遲均低于100毫秒2。

得益于更高的HBM2E帶寬,英特爾至強(qiáng)CPU Max系列為以上兩個(gè)模型提供了更低的延遲。而憑借英特爾AMX加速器,用戶可以通過(guò)更高的批量尺寸(batch size)來(lái)提高吞吐量。

wKgaomS-YSyACaIZAAFdK5-yIQE422.png

圖2 基于英特爾至強(qiáng)可擴(kuò)展處理器,70億參數(shù)和130億參數(shù)Llama 2模型(BFloat16)的推理性能

wKgZomS-YSyAKqrVAAFd-S49C7s205.png

圖3 基于英特爾至強(qiáng)可擴(kuò)展處理器,70億參數(shù)和130億參數(shù)Llama 2模型(INT8)的推理性能

對(duì)于70億和130億參數(shù)的模型,每個(gè)第四代至強(qiáng)插槽可提供低于100毫秒的延遲。用戶可以分別在兩個(gè)插槽上同時(shí)運(yùn)行兩個(gè)并行實(shí)例,從而獲得更高的吞吐量,并獨(dú)立地服務(wù)客戶端。亦或者,用戶可以通過(guò)英特爾?PyTorch擴(kuò)展包*和DeepSpeed* CPU,使用張量并行的方式在兩個(gè)第四代至強(qiáng)插槽上運(yùn)行推理,從而進(jìn)一步降低延遲或支持更大的模型。

關(guān)于在至強(qiáng)平臺(tái)上運(yùn)行大語(yǔ)言模型和Llama 2,開(kāi)發(fā)者可以點(diǎn)擊此處(https://intel.github.io/intel-extension-for-pytorch/llm/cpu/)了解更多詳細(xì)信息。第四代英特爾至強(qiáng)可擴(kuò)展處理器的云實(shí)例可在AWS和Microsoft Azure上預(yù)覽,目前已在谷歌云平臺(tái)和阿里云全面上線。英特爾將持續(xù)在PyTorch*和DeepSpeed*進(jìn)行軟件優(yōu)化,以進(jìn)一步加速Llama 2和其它大語(yǔ)言模型。

英特爾?數(shù)據(jù)中心GPU Max系列

英特爾數(shù)據(jù)中心GPU Max系列提供并行計(jì)算、科學(xué)計(jì)算和適用于科學(xué)計(jì)算的AI加速。作為英特爾性能最為出色、密度最高的獨(dú)立顯卡,英特爾數(shù)據(jù)中心GPU Max系列產(chǎn)品中封裝超過(guò)1000億個(gè)晶體管,并包含多達(dá)128個(gè)Xe內(nèi)核,Xe是英特爾GPU的計(jì)算構(gòu)建模塊。

英特爾數(shù)據(jù)中心GPU Max系列旨在為AI和科學(xué)計(jì)算中使用的數(shù)據(jù)密集型計(jì)算模型提供突破性的性能,包括:

●408 MB基于獨(dú)立SRAM技術(shù)的L2緩存、64MB L1緩存以及高達(dá)128GB的高帶寬內(nèi)存(HBM2E)。

●AI增強(qiáng)型的Xe英特爾?矩陣擴(kuò)展(英特爾?XMX)搭載脈動(dòng)陣列,在單臺(tái)設(shè)備中可實(shí)現(xiàn)矢量和矩陣功能。

英特爾Max系列產(chǎn)品統(tǒng)一支持oneAPI,并基于此實(shí)現(xiàn)通用、開(kāi)放、基于標(biāo)準(zhǔn)的編程模型,釋放生產(chǎn)力和性能。英特爾oneAPI工具包括高級(jí)編譯器、庫(kù)、分析工具和代碼遷移工具,可使用SYCL輕松將CUDA代碼遷移到開(kāi)放的C++

英特爾數(shù)據(jù)中心Max系列GPU通過(guò)當(dāng)今框架的開(kāi)源擴(kuò)展來(lái)實(shí)現(xiàn)軟件支持和優(yōu)化,例如面向PyTorch*的英特爾擴(kuò)展、面向TensorFlow*的英特爾?擴(kuò)展和面向DeepSpeed*的英特爾?擴(kuò)展。通過(guò)將這些擴(kuò)展與上游框架版本一起使用,用戶將能夠在機(jī)器學(xué)習(xí)工作流中實(shí)現(xiàn)快速整合。

我們?cè)谝粋€(gè)600瓦OAM形態(tài)的GPU上評(píng)估了Llama 2的70億參數(shù)模型和Llama 2的130億參數(shù)模型推理性能,這個(gè)GPU上封裝了兩個(gè)tile,而我們只使用其中一個(gè)tile來(lái)運(yùn)行推理。圖4顯示,對(duì)于輸入長(zhǎng)度為32到2000的token,英特爾數(shù)據(jù)中心GPU Max系列的一個(gè)tile可以為70億參數(shù)模型的推理提供低于20毫秒的單token延遲,130億參數(shù)模型的單token延遲為29.2-33.8毫秒3。因?yàn)樵揋PU上封裝了兩個(gè)tile,用戶可以同時(shí)并行運(yùn)行兩個(gè)獨(dú)立的實(shí)例,每個(gè)tile上運(yùn)行一個(gè),以獲得更高的吞吐量并獨(dú)立地服務(wù)客戶端。

wKgaomS-YSyAQ0J9AAEglfTSRug869.png

圖4英特爾數(shù)據(jù)中心GPUMax1550上的Llama2的70億和130億參數(shù)模型的推理性能

關(guān)于在英特爾GPU平臺(tái)上運(yùn)行大語(yǔ)言模型和Llama 2,可以點(diǎn)擊此處(https://intel.github.io/intel-extension-for-pytorch/llm/xpu/)獲取詳細(xì)信息。目前英特爾開(kāi)發(fā)者云平臺(tái)上已發(fā)布英特爾GPU Max云實(shí)例測(cè)試版。

英特爾平臺(tái)上的大語(yǔ)言模型微調(diào)

除了推理之外,英特爾一直在積極地推進(jìn)微調(diào)加速,通過(guò)向Hugging Face Transformers、PEFT、Accelerate和Optimum庫(kù)提供優(yōu)化,并在面向Transformers的英特爾?擴(kuò)展中提供參考工作流。這些工作流支持在相關(guān)英特爾平臺(tái)上高效地部署典型的大語(yǔ)言模型任務(wù),如文本生成、代碼生成、完成和摘要。

總結(jié)

上述內(nèi)容介紹了在英特爾AI硬件產(chǎn)品組合上運(yùn)行Llama 2的70億和130億參數(shù)模型推理性能的初始評(píng)估,包括Habana Gaudi2深度學(xué)習(xí)加速器、第四代英特爾至強(qiáng)可擴(kuò)展處理器、英特爾?至強(qiáng)?CPU Max系列和英特爾數(shù)據(jù)中心GPU Max系列。我們將繼續(xù)通過(guò)軟件發(fā)布提供優(yōu)化,后續(xù)會(huì)再分享更多關(guān)于大語(yǔ)言模型和更大的Llama 2模型的評(píng)估。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10192

    瀏覽量

    174575
  • AI
    AI
    +關(guān)注

    關(guān)注

    88

    文章

    35040

    瀏覽量

    278987
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3131

    瀏覽量

    4044
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    英特爾銳炫Pro B系列,邊緣AI的“智能引擎”

    CTO、高級(jí)首席AI工程師張宇博士 英特爾客戶端計(jì)算事業(yè)部邊緣計(jì)算CTO、高級(jí)首席AI工程師張宇博士在MWC AI終端峰會(huì)上指出,邊緣將崛起
    的頭像 發(fā)表于 06-20 17:32 ?307次閱讀
    <b class='flag-5'>英特爾</b>銳炫Pro B<b class='flag-5'>系列</b>,邊緣<b class='flag-5'>AI</b>的“智能引擎”

    英特爾發(fā)布全新GPU,AI和工作站迎來(lái)新選擇

    英特爾推出面向準(zhǔn)專業(yè)用戶和AI開(kāi)發(fā)者的英特爾銳炫Pro GPU系列,發(fā)布英特爾? Gaudi 3 AI
    發(fā)表于 05-20 11:03 ?1506次閱讀

    部署成本顯著降低!英特爾助陣高效AI算力體機(jī)方案

    3月27日,英特爾舉辦了名為“‘至’繪未來(lái),銳炫來(lái)襲”的創(chuàng)新解決方案研討會(huì),與生態(tài)伙伴共同分享最新AI算力體機(jī)方案。該
    的頭像 發(fā)表于 03-29 16:29 ?1191次閱讀
    部署成本顯著降低!<b class='flag-5'>英特爾</b>助陣高效<b class='flag-5'>AI</b>算力<b class='flag-5'>一</b>體機(jī)<b class='flag-5'>方案</b>

    使用英特爾AI PCYOLO模型訓(xùn)練加速

    之后,情況有了新的變化,PyTorch2.5正式開(kāi)始支持英特爾顯卡,也就是說(shuō),此后我們能夠借助英特爾 銳炫 顯卡來(lái)進(jìn)行模型訓(xùn)練了。
    的頭像 發(fā)表于 12-09 16:14 ?1571次閱讀
    使用<b class='flag-5'>英特爾</b><b class='flag-5'>AI</b> PC<b class='flag-5'>為</b>YOLO<b class='flag-5'>模型</b>訓(xùn)練加速

    英特爾推出全新英特爾銳炫B系列顯卡

    備受玩家青睞的價(jià)格提供卓越的性能與價(jià)值1,很好地滿足現(xiàn)代游戲需求,并為AI工作負(fù)載提供加速。其配備的英特爾Xe矩陣計(jì)算引擎(XMX),新推
    的頭像 發(fā)表于 12-07 10:16 ?1417次閱讀
    <b class='flag-5'>英特爾</b>推出全新<b class='flag-5'>英特爾</b>銳炫B<b class='flag-5'>系列</b>顯卡

    英特爾發(fā)布全新企業(yè)AI體化方案

    近日,英特爾正式推出了全新的企業(yè)AI體化方案。該方案英特爾至強(qiáng)處理器和
    的頭像 發(fā)表于 12-03 11:20 ?586次閱讀

    英特爾發(fā)布全新企業(yè)AI一體化解決方案

    近日,英特爾正式推出了其全新的企業(yè)AI一體化解決方案,這一方案旨在為企業(yè)提供更加開(kāi)放、可擴(kuò)展且高效的端到端服務(wù)。 該
    的頭像 發(fā)表于 12-02 10:48 ?911次閱讀

    瑞薩電子攜手英特爾推出先進(jìn)電源管理解決方案

    全球半導(dǎo)體解決方案供應(yīng)商瑞薩電子(TSE:6723)今日宣布與英特爾攜手,推出款電源管理解決方案搭載
    的頭像 發(fā)表于 10-25 10:57 ?815次閱讀

    英特爾AI PC無(wú)所不能的實(shí)力

    百業(yè)的最后公里問(wèn)題。而客戶端的AI能力也在不斷提升,最終將解決個(gè)人AI的數(shù)據(jù)隱私和個(gè)性化問(wèn)題。可見(jiàn),AI非常適合云邊端三級(jí)架構(gòu),按照用戶場(chǎng)景進(jìn)行針對(duì)性部署。
    的頭像 發(fā)表于 10-12 10:26 ?760次閱讀

    英特爾攜手百度智能云加速AI落地

    在2024年9月25日-26日舉辦的2024百度云智大會(huì)上,作為大會(huì)的聯(lián)合主辦方,英特爾帶來(lái)了AI全棧軟硬件方案,深入講解了如何基于英特爾 至強(qiáng) 處理器和新
    的頭像 發(fā)表于 10-12 10:08 ?845次閱讀

    Inflection AI攜手英特爾推出企業(yè)級(jí)AI系統(tǒng)

    for Enterprise。這一系統(tǒng)的發(fā)布標(biāo)志著Inflection AI在為企業(yè)客戶提供定制化、高性能AI解決方案方面邁出了重要
    的頭像 發(fā)表于 10-09 16:40 ?746次閱讀

    四大核心展區(qū),英特爾在工博會(huì)展現(xiàn)AI與制造深度融合

    核心展區(qū),以及最新的工業(yè)優(yōu)選電腦,全面展出了英特爾AI驅(qū)動(dòng)的最新技術(shù)成果和解決方案,并通過(guò)一系列與工業(yè)合作伙伴聯(lián)合開(kāi)發(fā)的智能化轉(zhuǎn)型前沿案例,
    的頭像 發(fā)表于 09-27 09:30 ?424次閱讀
    四大核心展區(qū),<b class='flag-5'>英特爾</b>在工博會(huì)展現(xiàn)<b class='flag-5'>AI</b>與制造深度融合

    英特爾亮相2024云棲大會(huì),共話AI時(shí)代發(fā)展新機(jī)

    搭載該處理器的阿里云ECS第九代企業(yè)級(jí)計(jì)算實(shí)例并分享了一系列最新合作進(jìn)展——以出色性能為代表的先進(jìn)特性將助力下代數(shù)據(jù)中心升級(jí),并為大模型時(shí)代企業(yè)AI的落地與發(fā)展
    的頭像 發(fā)表于 09-23 09:18 ?607次閱讀
    <b class='flag-5'>英特爾</b>亮相2024云棲大會(huì),共話<b class='flag-5'>AI</b>時(shí)代發(fā)展新機(jī)

    如何將Llama3.1模型部署在英特爾酷睿Ultra處理器

    本文從搭建環(huán)境開(kāi)始,步幫助讀者實(shí)現(xiàn)只用五行代碼便可將Llama3.1模型部署在英特爾 酷睿 Ultra 處理器上。
    的頭像 發(fā)表于 07-26 09:51 ?3081次閱讀
    如何將<b class='flag-5'>Llama</b>3.1<b class='flag-5'>模型</b>部署在<b class='flag-5'>英特爾</b>酷睿Ultra處理器

    英特爾以生成式AI RAG解決方案巴黎奧運(yùn)健兒提供便捷體驗(yàn)

    英特爾通過(guò)開(kāi)放、易獲取的AI系統(tǒng)和生態(tài)協(xié)作,以創(chuàng)新的方式運(yùn)動(dòng)員提供支持,并助力企業(yè)客戶創(chuàng)造更多可能。 英特爾分享了與國(guó)際奧林匹克委員會(huì)(I
    的頭像 發(fā)表于 07-19 19:43 ?2056次閱讀
    <b class='flag-5'>英特爾</b>以生成式<b class='flag-5'>AI</b> RAG<b class='flag-5'>解決方案</b>,<b class='flag-5'>為</b>巴黎奧運(yùn)健兒<b class='flag-5'>提供</b>便捷體驗(yàn)
    主站蜘蛛池模板: 天天操bb | 恐怖片大全恐怖片免费观看好看的恐怖片 | 国产特黄1级毛片 | 美女视频永久黄网站免费观看国产 | 狠狠色丁香婷婷综合激情 | 日本人69xxxxxxxx69 | 2020年亚洲天天爽天天噜 | aaaaa国产毛片 | 天天做天天爱天天操 | 黄网站色视频免费观看 | 濑亚美莉iptd619在线观看 | 四虎影院com| brazzersvideosexhd欧美高清 | 天堂bt种子资源+在线 | 手机午夜视频 | 麻豆国产三级在线观看 | 韩国午夜影院 | 免费的色网站 | 色秀网站 | 色在线免费 | 精品一区二区三区自拍图片区 | 亚洲成人高清在线 | 黄 色 大 片 网站 | 久久怡红院国产精品 | 久久青草国产免费观看 | 精品手机在线视频 | 国产精品亚洲玖玖玖在线靠爱 | 天天做天天爱夜夜爽女人爽宅 | 上一篇26p国模 | 在线看片地址 | 黄网站色视频免费看无下截 | 一级 黄 色 毛片 | 成人网视频免费播放 | 在线天堂中文官网 | 国产香蕉75在线播放 | 日韩综合色 | 日本一级黄色毛片 | 啪视频免费 | 午夜影视网站 | 日本69xxxxxxxx69 | 免费一级毛片在线播放 |