完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > llm
在人工智能領(lǐng)域,LLM代表“大型語言模型”。在人工智能(AI)領(lǐng)域自然語言處理(NLP)是一個(gè)快速進(jìn)展的領(lǐng)域。NLP中最重要是大語言模型(LLM)。大語言模型(英文:Large Language Model,縮寫LLM),也稱大型語言模型,是一種基于機(jī)器學(xué)習(xí)和自然語言處理技術(shù)的模型。
文章:299個(gè) 瀏覽:411次 帖子:3個(gè)
什么是LlamaIndex?LlamaIndex數(shù)據(jù)框架的特點(diǎn)和功能
LlamaIndex是一個(gè)數(shù)據(jù)框架,用于讓基于LLM的應(yīng)用程序攝取、結(jié)構(gòu)化和訪問私有或領(lǐng)域特定的數(shù)據(jù)。它提供Python和Typescript版本。
2024-01-05 標(biāo)簽:接口SQL數(shù)據(jù)庫 9698 0
隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡(jiǎn)稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其...
高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南
ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到圖像生成等任務(wù)中表現(xiàn)出令人印象深刻的性能。
2023-12-25 標(biāo)簽:轉(zhuǎn)換器人工智能RAG算法 5123 0
單模態(tài)大模型,通常大于100M~1B參數(shù)。具有較強(qiáng)的通用性,比如對(duì)圖片中任意物體進(jìn)行分割,或者生成任意內(nèi)容的圖片或聲音。極大降低了場(chǎng)景的定制成本。
LLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT結(jié)構(gòu)對(duì)比
使用RMSNorm(即Root Mean square Layer Normalization)對(duì)輸入數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,RMSNorm可以參考論文:Roo...
2023-05-19 標(biāo)簽:電源優(yōu)化器GPTBPEKF算法 4162 0
基于AX650N/AX630C部署端側(cè)大語言模型Qwen2
本文將分享如何將最新的端側(cè)大語言模型部署到超高性價(jià)比SoC上,向業(yè)界對(duì)端側(cè)大模型部署的開發(fā)者提供一種新的思路。
LLM推理加速新范式!推測(cè)解碼(Speculative Decoding)最新綜述
這個(gè)問題隨著LLM規(guī)模的增大愈發(fā)嚴(yán)重。并且,如下左圖所示,目前LLM常用的自回歸解碼(autoregressive decoding)在每個(gè)解碼步只能生...
中國(guó)研究人員提出StructGPT,提高LLM對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力
盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長(zhǎng)度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線性化為 LL...
2023-05-24 標(biāo)簽:數(shù)據(jù)管理自然語言處理知識(shí)圖譜 3121 0
0x0. 前言 我的 ChatRWKV 學(xué)習(xí)筆記和使用指南 這篇文章是學(xué)習(xí)RWKV的第一步,然后學(xué)習(xí)了一下之后決定自己應(yīng)該做一些什么。所以就在RWKV社...
隨著ChatGPT的快速發(fā)展,基于Transformer的大型語言模型(LLM)為人工通用智能(AGI)鋪平了一條革命性的道路,并已應(yīng)用于知識(shí)庫、人機(jī)界...
2023-11-27 標(biāo)簽:模型深度學(xué)習(xí)ChatGPT 3029 0
大型語言模型(LLM)的自定義訓(xùn)練:包含代碼示例的詳細(xì)指南
近年來,像 GPT-4 這樣的大型語言模型 (LLM) 因其在自然語言理解和生成方面的驚人能力而受到廣泛關(guān)注。但是,要根據(jù)特定任務(wù)或領(lǐng)域定制LLM,定制...
2023-06-12 標(biāo)簽:GPUpython數(shù)據(jù)集 2970 0
使用基于Transformers的API在CPU上實(shí)現(xiàn)LLM高效推理
英特爾 Extension for Transformers是英特爾推出的一個(gè)創(chuàng)新工具包,可基于英特爾 架構(gòu)平臺(tái),尤其是第四代英特爾 至強(qiáng) 可擴(kuò)展處理器...
這個(gè)方法之所以有效,是因?yàn)榫鶆蚍植紟椭覀儗q(x)提供的“封包”縮放到p(x)的概率密度函數(shù)。另一種看法是,我們?nèi)狱c(diǎn)x0的概率。這與從g中取樣x0...
當(dāng)紅炸子雞LoRA,是當(dāng)代微調(diào)LLMs的正確姿勢(shì)?
大多數(shù)人對(duì)于 LLM 的“親密度”,可能最多就是拉個(gè)開源的 demo 跑下推理過程,得到個(gè)“意料之中”的結(jié)果,然后很諷刺地自 high 一把:WOW~ ...
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺 | 無人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國(guó)民技術(shù) | Microchip |
Arduino | BeagleBone | 樹莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |