什么是RAG,RAG學(xué)習(xí)和實踐經(jīng)驗
高級的RAG能很大程度優(yōu)化原始RAG的問題,在索引、檢索和生成上都有更多精細的優(yōu)化,主要的優(yōu)化點會集....

基于雙級優(yōu)化(BLO)的消除過擬合的微調(diào)方法
這篇論文試圖解決的問題是大型預(yù)訓(xùn)練模型在下游任務(wù)中進行微調(diào)時出現(xiàn)的過擬合問題。盡管低秩適應(yīng)(LoRA....

斯坦福繼Flash Attention V1和V2又推出Flash Decoding
斯坦福大學(xué)此前提出的FlashAttention算法,能夠在BERT-large訓(xùn)練中節(jié)省15%,將....
利用知識圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動的RAG系統(tǒng)(下)
對于語言模型(LLM)幻覺,知識圖譜被證明優(yōu)于向量數(shù)據(jù)庫。知識圖譜提供更準(zhǔn)確、多樣化、有趣、邏輯和一....

利用知識圖譜與Llama-Index技術(shù)構(gòu)建大模型驅(qū)動的RAG系統(tǒng)(上)
向量數(shù)據(jù)庫是一組高維向量的集合,用于表示實體或概念,例如單詞、短語或文檔。向量數(shù)據(jù)庫可以根據(jù)實體或概....

LLaMA 2是什么?LLaMA 2背后的研究工作
Meta 發(fā)布的 LLaMA 2,是新的 sota 開源大型語言模型 (LLM)。LLaMA 2 代....
開發(fā)RAG管道過程中的12個痛點
準(zhǔn)確解釋用戶查詢以檢索相關(guān)的結(jié)構(gòu)化數(shù)據(jù)是困難的,特別是在面對復(fù)雜或模糊的查詢、不靈活的文本到SQL轉(zhuǎn)....

聊聊小公司如何做大模型
通過SFT、DPO、RLHF等技術(shù)訓(xùn)練了領(lǐng)域?qū)懽髂P汀崪y下來,在該領(lǐng)域?qū)懽魃希瑥娪趪鴥?nèi)大多數(shù)的閉源....
LLM推理加速新范式!推測解碼(Speculative Decoding)最新綜述
這個問題隨著LLM規(guī)模的增大愈發(fā)嚴重。并且,如下左圖所示,目前LLM常用的自回歸解碼(autoreg....

大模型微調(diào)實踐心得與認知深化
.通常CPT開始的階段會出現(xiàn)一段時間的loss上升,隨后慢慢收斂,所以學(xué)習(xí)率是一個很重要的參數(shù),這很....
8x7B MoE與Flash Attention 2結(jié)合,不到10行代碼實現(xiàn)快速推理
我們都知道,OpenAI 團隊一直對 GPT-4 的參數(shù)量和訓(xùn)練細節(jié)守口如瓶。Mistral 8x7....

模型與人類的注意力視角下參數(shù)規(guī)模擴大與指令微調(diào)對模型語言理解的作用
近期的大語言模型(LLM)在自然語言理解和生成上展現(xiàn)出了接近人類的強大能力,遠遠優(yōu)于先前的BERT等....
