91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

2023 LLM技術(shù)報告—— LLM的工具和平臺

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2024-01-29 15:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開源開發(fā)者圈子來看,2023 年是大模型 LLM 年、生成式 AI GenAI 年,LLM 領(lǐng)域大放異彩。

LLM 是利用深度學(xué)習(xí)和大數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng),專門設(shè)計(jì)來理解、生成和回應(yīng)自然語言。這些模型通過分析大量的文本數(shù)據(jù)來學(xué)習(xí)語言的結(jié)構(gòu)和用法,從而能夠執(zhí)行各種語言相關(guān)任務(wù)。

本篇將為大家介紹一下 LLM 相關(guān)的工具和平臺。

LLMOps

LLMOps 平臺專注于提供大模型的部署、運(yùn)維和優(yōu)化服務(wù),旨在幫助企業(yè)和開發(fā)者更高效地管理和使用這些先進(jìn)的 AI 模型,快速完成從模型到應(yīng)用的跨越,如 Dify.AI 、LangChain等。

ad9c3fe4-b9dd-11ee-8b88-92fbcf53809c.png

開源框架 LangChain 是一個幫助開發(fā)者使用 LLM 創(chuàng)建應(yīng)用的開源框架,它可以將 LLM 與外部數(shù)據(jù)源進(jìn)行連接,并允許與 LLM進(jìn)行交互。LangChain 于 2022 年 10 月作為開源項(xiàng)目推出,并于2023 年 4 月注冊成立公司,累計(jì)獲得超過 3000 萬美元的投資,估值達(dá)到了 2 億美元。在 GitHub 上,LangChain 已經(jīng)獲得了超過 7 萬個 Star 和超過 2000 名貢獻(xiàn)者。

ada0e53a-b9dd-11ee-8b88-92fbcf53809c.png

大模型聚合平臺

大模型聚合平臺主要用于整合和管理多個大型機(jī)器學(xué)習(xí)模型,在聚合平臺之上,衍生出 MaaS(Model-as-a- Service,大模型即服務(wù))的服務(wù)模式——通過提供統(tǒng)一的接口和框架,以更高效地部署、運(yùn)行和優(yōu)化這些模型,Hugging Face、Replicate 以及 Gitee AI 均為 MaaS 平臺。

ada4e40a-b9dd-11ee-8b88-92fbcf53809c.png

Gitee AI 是開源中國旗下的 MaaS 平臺,提供模型、數(shù)據(jù)集,以及應(yīng)用托管能力,同時接入了豐富的國產(chǎn)算力平臺,為開發(fā)者提供了更高效、實(shí)惠的微調(diào)方案,降低使用門檻,目前已進(jìn)入內(nèi)測階段。

adb1bf72-b9dd-11ee-8b88-92fbcf53809c.png

開發(fā)工具

其它開發(fā)相關(guān)的 LLM 工具,如云原生構(gòu)建多模態(tài)AI應(yīng)用的工具 Jina,嵌入式數(shù)據(jù)庫 txtai 等。

adc3750a-b9dd-11ee-8b88-92fbcf53809c.png

比較有代表性的 LLM 開發(fā)工具有:

PromptPerfect:幫助用戶極致優(yōu)化給大模型的提示詞(prompt),使得對大語言模型提問時,可以獲得更理想的輸出。

adcfc8dc-b9dd-11ee-8b88-92fbcf53809c.png

txtai:用于語義搜索、LLM 編排和語言模型工作流的一體化嵌入數(shù)據(jù)庫,可以使用SQL、對象存儲、主題建模、圖形分析和多模態(tài)索引進(jìn)行矢量搜索。

imgcook:專注以 Sketch、PSD、靜態(tài)圖片等形式的視覺稿作為輸入,通過智能化技術(shù)一鍵生成可維護(hù)的前端代碼,包含視圖代碼、數(shù)據(jù)字段綁定、組件代碼、部分業(yè)務(wù)邏輯代碼。

另一個視角來看,在大模型繁榮發(fā)展的背后,少不了工具和平臺的發(fā)力,如 LLMOps 平臺、大模型聚合平臺以及相關(guān)的開發(fā)工具,此外還有它們所依賴的最重要的資源——算力。在這些工具、平臺和資源的有力支撐下,大模型才得以一步一個臺階,引領(lǐng)全球開發(fā)者步入一個技術(shù)新時代。

add42648-b9dd-11ee-8b88-92fbcf53809c.png

以上內(nèi)容出自《2023 LLM 技術(shù)報告》,此報告濃墨重彩地梳理了 2023 年 LLM 的技術(shù)行情。報告整體圍繞 LLM Tech Map 梳理邏輯來展開,從基礎(chǔ)設(shè)施、大模型、Agent、AI 編程、工具和平臺,以及算力幾個方面,為開發(fā)者整理了當(dāng)前 LLM 中最為熱門和硬核的技術(shù)領(lǐng)域以及相關(guān)的軟件產(chǎn)品和開源項(xiàng)目。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122784
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3138

    瀏覽量

    4059
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    325

    瀏覽量

    835

原文標(biāo)題:2023 LLM技術(shù)報告—— LLM的工具和平臺

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應(yīng)用原型驗(yàn)證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?638次閱讀

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運(yùn)行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    LM Studio使用NVIDIA技術(shù)加速LLM性能

    隨著 AI 使用場景不斷擴(kuò)展(從文檔摘要到定制化軟件代理),開發(fā)者和技術(shù)愛好者正在尋求以更 快、更靈活的方式來運(yùn)行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?264次閱讀
    LM Studio使用NVIDIA<b class='flag-5'>技術(shù)</b>加速<b class='flag-5'>LLM</b>性能

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?483次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現(xiàn)狀

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運(yùn)行 llama_chat Python* Demo 時遇到錯誤。
    發(fā)表于 03-05 08:07

    新品| LLM630 Compute Kit,AI 大語言模型推理開發(fā)平臺

    LLM630LLM推理,視覺識別,可開發(fā),靈活擴(kuò)展···LLM630ComputeKit是一款A(yù)I大語言模型推理開發(fā)平臺,專為邊緣計(jì)算和智能交互應(yīng)用而設(shè)計(jì)。該套件的主板搭載愛芯AX630CSoC
    的頭像 發(fā)表于 01-17 18:48 ?689次閱讀
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大語言模型推理開發(fā)<b class='flag-5'>平臺</b>

    小白學(xué)大模型:構(gòu)建LLM的關(guān)鍵步驟

    隨著大規(guī)模語言模型(LLM)在性能、成本和應(yīng)用前景上的快速發(fā)展,越來越多的團(tuán)隊(duì)開始探索如何自主訓(xùn)練LLM模型。然而,是否從零開始訓(xùn)練一個LLM,并非每個組織都適合。本文將根據(jù)不同的需求與資源,幫助
    的頭像 發(fā)表于 01-09 12:12 ?961次閱讀
    小白學(xué)大模型:構(gòu)建<b class='flag-5'>LLM</b>的關(guān)鍵步驟

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計(jì)的庫。它提供了多種先進(jìn)的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?861次閱讀

    LLM在數(shù)據(jù)分析中的作用

    隨著大數(shù)據(jù)時代的到來,數(shù)據(jù)分析已經(jīng)成為企業(yè)和組織決策的關(guān)鍵工具。數(shù)據(jù)科學(xué)家和分析師需要從海量數(shù)據(jù)中提取有價值的信息,以支持業(yè)務(wù)決策。在這個過程中,LLM作為人工智能領(lǐng)域的一項(xiàng)突破性技術(shù),正在改變
    的頭像 發(fā)表于 11-19 15:35 ?1116次閱讀

    什么是LLMLLM在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域迎來了革命性的進(jìn)步。其中,大型語言模型(LLM)的出現(xiàn),標(biāo)志著我們對語言理解能力的一次飛躍。LLM通過深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?3640次閱讀

    LLM技術(shù)的未來趨勢分析

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(LLM)已經(jīng)成為自然語言處理(NLP)領(lǐng)域的一個熱點(diǎn)。這些模型通過分析和學(xué)習(xí)大量的文本數(shù)據(jù),能夠執(zhí)行多種語言任務(wù),如文本生成、翻譯、問答和情感分析等
    的頭像 發(fā)表于 11-08 09:35 ?1133次閱讀

    如何訓(xùn)練自己的LLM模型

    訓(xùn)練自己的大型語言模型(LLM)是一個復(fù)雜且資源密集的過程,涉及到大量的數(shù)據(jù)、計(jì)算資源和專業(yè)知識。以下是訓(xùn)練LLM模型的一般步驟,以及一些關(guān)鍵考慮因素: 定義目標(biāo)和需求 : 確定你的LLM將用
    的頭像 發(fā)表于 11-08 09:30 ?1500次閱讀

    LLM技術(shù)對人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(LLM技術(shù)已經(jīng)成為推動AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過深度學(xué)習(xí)和自然語言處理
    的頭像 發(fā)表于 11-08 09:28 ?1846次閱讀

    LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能領(lǐng)域,LLM(Large Language Models,大型語言模型)和傳統(tǒng)機(jī)器學(xué)習(xí)是兩種不同的技術(shù)路徑,它們在處理數(shù)據(jù)、模型結(jié)構(gòu)、應(yīng)用場景等方面有著顯著的差異。 1. 模型結(jié)構(gòu)
    的頭像 發(fā)表于 11-08 09:25 ?1876次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行推理以及特
    的頭像 發(fā)表于 07-24 11:38 ?1804次閱讀
    主站蜘蛛池模板: 91精品国产色综合久久不卡蜜 | 免费手机黄色网址 | 婷婷色九月综合激情丁香 | 久久性生活 | 欧美人成一本免费观看视频 | 欧美猛交xxxx乱大交 | 99久久精品免费看国产免费 | 欧美三j片| 精品三级在线观看 | 国产精品天天爽夜夜欢张柏芝 | tdg58在线观看 | 国产丝袜va丝袜老师 | 国产小视频在线播放 | 清纯漂亮小美女准备啪啪 | 国产成年美女毛片80s | 精品综合久久久久久98 | 天天干天天干天天干天天干天天干 | 成人久久久久久 | 888米奇色狠狠俺去啦 | 99色播 | 一级视频在线观看 | 屁股趴过来欠打高h | a毛片免费观看完整 | 久久国产精品99精品国产987 | 天堂网www天堂在线资源链接 | 免费一级视频在线播放 | 5月丁香婷婷 | 日本特级黄色大片 | 1024国产看片在线观看 | h视频在线免费看 | 高h细节肉爽文男男 | 四虎影永久在线观看网址 | 免费超爽视频 | 美女三级网站 | 免费精品99久久国产综合精品 | 免费视频不卡一区二区三区 | 亚洲国产影视 | video欧美性精品 | 任你操免费视频 | 欧美成人免费大片888 | 国产福利影视 |