91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語言處理

文章:837 被閱讀:242.7w 粉絲數(shù):45 關(guān)注數(shù):0 點(diǎn)贊數(shù):5

廣告

LLM大模型訓(xùn)練Trick系列之拒絕采樣

這個(gè)方法之所以有效,是因?yàn)榫鶆蚍植紟椭覀儗q(x)提供的“封包”縮放到p(x)的概率密度函數(shù)。另....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-21 15:07 ?4080次閱讀
LLM大模型訓(xùn)練Trick系列之拒絕采樣

一種針對(duì)LLMs簡(jiǎn)單有效的思維鏈解毒方法

考慮到強(qiáng)化學(xué)習(xí)[10]訓(xùn)練大語言模型的困難性,我們從語言建模的角度對(duì)大語言模型進(jìn)行解毒。已有工作將解....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-21 15:02 ?814次閱讀
一種針對(duì)LLMs簡(jiǎn)單有效的思維鏈解毒方法

檢索增強(qiáng)的語言模型方法的詳細(xì)剖析

? 本篇內(nèi)容是對(duì)于ACL‘23會(huì)議上陳丹琦團(tuán)隊(duì)帶來的Tutorial所進(jìn)行的學(xué)習(xí)記錄,以此從問題設(shè)置....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-21 09:58 ?2008次閱讀
檢索增強(qiáng)的語言模型方法的詳細(xì)剖析

基于Transformer多模態(tài)先導(dǎo)性工作

多模態(tài)(Multimodality)是指在信息處理、傳遞和表達(dá)中涉及多種不同的感知模態(tài)或信息來源。這....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-21 09:49 ?1182次閱讀
基于Transformer多模態(tài)先導(dǎo)性工作

大型語言模型在關(guān)鍵任務(wù)和實(shí)際應(yīng)用中的挑戰(zhàn)

大型語言模型的出現(xiàn)極大地推動(dòng)了自然語言處理領(lǐng)域的進(jìn)步,但同時(shí)也存在一些局限性,比如模型可能會(huì)產(chǎn)生看似....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-15 09:33 ?1825次閱讀
大型語言模型在關(guān)鍵任務(wù)和實(shí)際應(yīng)用中的挑戰(zhàn)

GPT時(shí)代醫(yī)學(xué)AI新賽道:16萬張圖片、70萬問答對(duì)的臨床問答數(shù)據(jù)集MIMIC-Diff-VQA發(fā)布

該研究同時(shí)提出了一個(gè)全新任務(wù),圖像對(duì)比 VQA (difference VQA):給定兩張圖片,回答....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-09 15:36 ?757次閱讀
GPT時(shí)代醫(yī)學(xué)AI新賽道:16萬張圖片、70萬問答對(duì)的臨床問答數(shù)據(jù)集MIMIC-Diff-VQA發(fā)布

關(guān)于領(lǐng)域大模型-訓(xùn)練Trick&落地的一點(diǎn)思考

現(xiàn)有大模型在預(yù)訓(xùn)練過程中都會(huì)加入書籍、論文等數(shù)據(jù),那么在領(lǐng)域預(yù)訓(xùn)練時(shí)這兩種數(shù)據(jù)其實(shí)也是必不可少的,主....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-09 11:43 ?2199次閱讀
關(guān)于領(lǐng)域大模型-訓(xùn)練Trick&落地的一點(diǎn)思考

ToolLLM:促進(jìn)大型語言模型掌握16000+真實(shí)世界的APIs

盡管開源大語言模型 (LLM) 及其變體(例如 LLaMA 和 Vicuna)取得了進(jìn)步,但它們?cè)趫?zhí)....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-02 16:27 ?980次閱讀
ToolLLM:促進(jìn)大型語言模型掌握16000+真實(shí)世界的APIs

爆火Llama 2一周請(qǐng)求下載超15萬,有人開源了Rust實(shí)現(xiàn)版本

隨著 Llama 2 的逐漸走紅,大家對(duì)它的二次開發(fā)開始流行起來。前幾天,OpenAI 科學(xué)家 Ka....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-02 16:25 ?851次閱讀
爆火Llama 2一周請(qǐng)求下載超15萬,有人開源了Rust實(shí)現(xiàn)版本

Focus-DETR:30%Token就能實(shí)現(xiàn)SOTA性能,效率倍增

目前 DETR 類模型已經(jīng)成為了目標(biāo)檢測(cè)的一個(gè)主流范式。但 DETR 算法模型復(fù)雜度高,推理速度低,....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 08-02 15:12 ?1348次閱讀
Focus-DETR:30%Token就能實(shí)現(xiàn)SOTA性能,效率倍增

LLM的長(zhǎng)度外推淺談

蘇神最早提出的擴(kuò)展LLM的context方法,基于bayes啟發(fā)得到的公式
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-28 17:37 ?2308次閱讀
LLM的長(zhǎng)度外推淺談

大模型訓(xùn)練中RM分?jǐn)?shù)越來越高,那訓(xùn)出來LLM的效果一定好嗎?

如果你動(dòng)手跑幾次ppo的過程就發(fā)現(xiàn)了,大模型的強(qiáng)化學(xué)習(xí)非常難以訓(xùn)練,難以訓(xùn)練不僅僅指的是費(fèi)卡,還是指....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-26 15:45 ?2320次閱讀
大模型訓(xùn)練中RM分?jǐn)?shù)越來越高,那訓(xùn)出來LLM的效果一定好嗎?

HaluEval數(shù)據(jù)集的構(gòu)建過程分析

最近,大語言模型(Large Language Models, LLMs)的快速發(fā)展帶來了自然語言處....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-24 09:08 ?1215次閱讀
HaluEval數(shù)據(jù)集的構(gòu)建過程分析

適用于各種NLP任務(wù)的開源LLM的finetune教程~

ChatGLM2-6b是清華開源的小尺寸LLM,只需要一塊普通的顯卡(32G較穩(wěn)妥)即可推理和微調(diào),....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-24 09:04 ?2065次閱讀
適用于各種NLP任務(wù)的開源LLM的finetune教程~

張俊林:大語言模型帶來的交互方式變革

在大模型出來之前,人和數(shù)據(jù)怎么發(fā)生關(guān)系?人不能直接與數(shù)據(jù)發(fā)生關(guān)系,需要通過一個(gè)中介,這個(gè)中介就是應(yīng)用....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-18 14:47 ?1273次閱讀
張俊林:大語言模型帶來的交互方式變革

單樣本微調(diào)給ChatGLM2注入知識(shí)

LoRA微調(diào)是一種高效的融入學(xué)習(xí)算法。類似人類把新知識(shí)融入現(xiàn)有知識(shí)體系的學(xué)習(xí)過程。學(xué)習(xí)時(shí)無需新知識(shí)特....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-18 14:44 ?3315次閱讀
單樣本微調(diào)給ChatGLM2注入知識(shí)

RoPE可能是LLM時(shí)代的Resnet

通過線性插值RoPE擴(kuò)張LLAMA context長(zhǎng)度最早其實(shí)是在llamacpp項(xiàng)目中被人發(fā)現(xiàn),有....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-14 16:58 ?831次閱讀

最新綜述!當(dāng)大型語言模型(LLM)遇上知識(shí)圖譜:兩大技術(shù)優(yōu)勢(shì)互補(bǔ)

LLM 是黑箱模型,缺乏可解釋性,因此備受批評(píng)。LLM 通過參數(shù)隱含地表示知識(shí)。因此,我們難以解釋和....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-10 11:35 ?2700次閱讀
最新綜述!當(dāng)大型語言模型(LLM)遇上知識(shí)圖譜:兩大技術(shù)優(yōu)勢(shì)互補(bǔ)

大模型微調(diào)樣本構(gòu)造的trick

現(xiàn)在chatglm2的代碼針對(duì)這兩個(gè)問題已經(jīng)進(jìn)行了改善,可以認(rèn)為他就是典型的decoder-only....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-10 11:32 ?1128次閱讀
大模型微調(diào)樣本構(gòu)造的trick

X-RiSAWOZ: 高質(zhì)量端到端多語言任務(wù)型對(duì)話數(shù)據(jù)集

對(duì)齊:我們提出了一種混合對(duì)齊策略,以確保實(shí)體在話語和信念狀態(tài)中都能被替換為所需的翻譯。具體而言,我們....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-06 16:44 ?1070次閱讀
X-RiSAWOZ: 高質(zhì)量端到端多語言任務(wù)型對(duì)話數(shù)據(jù)集

武大+上交提出BatGPT:創(chuàng)新性采用雙向自回歸架構(gòu),可預(yù)測(cè)前后token

此外,BATGPT還采用了強(qiáng)化學(xué)習(xí)方法,從AI和人類反饋中學(xué)習(xí),以進(jìn)一步提高模型的對(duì)齊性能。這些方法....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-06 16:40 ?1666次閱讀
武大+上交提出BatGPT:創(chuàng)新性采用雙向自回歸架構(gòu),可預(yù)測(cè)前后token

人大發(fā)表迄今為止最大最全的大模型綜述

大語言模型目前已經(jīng)成為學(xué)界研究的熱點(diǎn)。我們統(tǒng)計(jì)了arXiv論文庫(kù)中自2018年6月以來包含關(guān)鍵詞"語....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-06 16:36 ?3063次閱讀
人大發(fā)表迄今為止最大最全的大模型綜述

Multi-CLS BERT:傳統(tǒng)集成的有效替代方案

在 GLUE 和 SuperGLUE 數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),證明了 Multi-CLS BERT 在提....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 07-04 15:47 ?1031次閱讀
Multi-CLS BERT:傳統(tǒng)集成的有效替代方案

我們能否擴(kuò)展現(xiàn)有的預(yù)訓(xùn)練 LLM 的上下文窗口

? ? 在大家不斷升級(jí)迭代自家大模型的時(shí)候,LLM(大語言模型)對(duì)上下文窗口的處理能力,也成為一個(gè)重....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-30 11:09 ?962次閱讀
我們能否擴(kuò)展現(xiàn)有的預(yù)訓(xùn)練 LLM 的上下文窗口

單張消費(fèi)級(jí)顯卡微調(diào)多模態(tài)大模型

把大模型的訓(xùn)練門檻打下來!我們?cè)趩螐埾M(fèi)級(jí)顯卡上實(shí)現(xiàn)了多模態(tài)大模型(LaVIN-7B, LaVIN-....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-30 10:43 ?3048次閱讀
單張消費(fèi)級(jí)顯卡微調(diào)多模態(tài)大模型

基于一個(gè)完整的 LLM 訓(xùn)練流程

? ? 在這篇文章中,我們將盡可能詳細(xì)地梳理一個(gè)完整的 LLM 訓(xùn)練流程。包括模型預(yù)訓(xùn)練(Pretr....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-29 10:08 ?2966次閱讀
基于一個(gè)完整的 LLM 訓(xùn)練流程

一種完全由LLM + 啟發(fā)式搜索算法結(jié)合的TOT算法

今天分享一篇普林斯頓大學(xué)的一篇文章,Tree of Thoughts: Deliberate Pro....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-29 10:06 ?2138次閱讀
一種完全由LLM + 啟發(fā)式搜索算法結(jié)合的TOT算法

利用生成式AI進(jìn)行法律研究

為了解決這一問題,本文提出了三個(gè)LLM模型——理解、經(jīng)驗(yàn)和事實(shí),將它們合成為一個(gè)組合模型。還引入了多....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-27 16:58 ?833次閱讀
利用生成式AI進(jìn)行法律研究

大模型如何快速構(gòu)建指令遵循數(shù)據(jù)集

一、概述 1 Motivation 構(gòu)造instruction data非常耗時(shí)耗力,常受限于質(zhì)量,....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-27 16:56 ?3600次閱讀
大模型如何快速構(gòu)建指令遵循數(shù)據(jù)集

GLoRA:一種廣義參數(shù)高效的微調(diào)方法

近年來,大規(guī)模深度神經(jīng)網(wǎng)絡(luò)的顯著成就徹底改變了人工智能領(lǐng)域,在各種任務(wù)和領(lǐng)域展示了前所未有的性能。這....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 06-27 16:53 ?1131次閱讀
GLoRA:一種廣義參數(shù)高效的微調(diào)方法
主站蜘蛛池模板: 特色毛片 | 免费午夜视频在线观看 | 四虎永久在线观看免费网站网址 | 51久久 | 色网站免费 | 国产精选经典三级小泽玛利亚 | bt 电影天堂 | 美女扒尿口给男人桶到爽 | 婷婷网五月天天综合天天爱 | 国产女主播在线播放一区二区 | 激情五月综合综合久久69 | 可以免费观看的一级毛片 | 精品日韩一区二区三区 | 午夜100| jizz免费一区二区三区 | 美女黄18 | 成年男人午夜片免费观看 | 日日草夜夜草 | 色五月视频 | www.av毛片| 日本午夜大片a在线观看 | 天天综合色网 | 一丝不遮视频免费观看 | 在线资源你懂的 | 91视频三级 | 美女隐私黄www视频 美女用手扒开尿口给男生桶爽 | 日本经典在线三级视频 | 一级特黄aaa大片大全 | 婷婷丁香激情五月 | 色妞影视| 色精品一区二区三区 | 国产深夜福利在线观看网站 | 中文字幕一二三区 | 天堂在线中文字幕 | 久久777国产线看观看精品卜 | 色五月在线视频 | 天天综合网站 | 麻豆国产一区二区在线观看 | 国产一级免费视频 | 午夜a视频| 久久久久久毛片免费播放 |