780GB降低到 。 開源社區(qū)直接開始狂歡,相關(guān)論文成為24小時(shí)內(nèi)關(guān)注度最高的AI論文。 ? 以Meta的美洲駝LLaMA為基礎(chǔ),得到原駝 650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時(shí),330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時(shí) 。 24GB顯存,也就" />

91在线观看视频-91在线观看视频-91在线观看免费视频-91在线观看免费-欧美第二页-欧美第1页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

iPhone都能微調(diào)大模型了嘛

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-06-02 15:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動(dòng)測(cè)試分?jǐn)?shù)達(dá)到ChatGPT的99.3%,人類難以分辨兩者的回答……

這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學(xué)原駝Guanaco)。

更關(guān)鍵的是,與原駝一起提出的新方法QLoRA把微調(diào)大模型的顯存需求從>780GB降低到<48GB

開源社區(qū)直接開始狂歡,相關(guān)論文成為24小時(shí)內(nèi)關(guān)注度最高的AI論文。

以Meta的美洲駝LLaMA為基礎(chǔ),得到原駝650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時(shí),330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時(shí)

24GB顯存,也就是一塊消費(fèi)級(jí)RTX3090或RTX4090顯卡足以。

不少網(wǎng)友在測(cè)試后也表示,更喜歡它而不是ChatGPT。

英偉達(dá)科學(xué)家Jim Fan博士對(duì)此評(píng)價(jià)為:大模型小型化的又一里程碑

先擴(kuò)大規(guī)模再縮小,將成為開源AI社區(qū)的節(jié)奏。

而新的高效微調(diào)方法QLoRA迅速被開源社區(qū)接受,HuggingFace也在第一時(shí)間整合上線了相關(guān)代碼。

GPT-4做裁判,原駝得分達(dá)到ChatGPT的99.3%

論文中,團(tuán)隊(duì)對(duì)原駝總共做了三項(xiàng)測(cè)試,自動(dòng)評(píng)估、隨機(jī)匹配和人類評(píng)估。

測(cè)試數(shù)據(jù)來自小羊駝Vicuna和Open Assistant。

自動(dòng)評(píng)估由大模型天花板GPT-4當(dāng)裁判,對(duì)不同模型的回答進(jìn)行打分,以ChatGPT(GPT3.5)的成績(jī)作為100%。

最終原駝650億版得分達(dá)到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

07234144-fbd8-11ed-90ce-dac502259ad0.png

隨機(jī)匹配,采用棋類專業(yè)比賽和電子競(jìng)技同款的Elo記分機(jī)制,由GPT-4和人類共同做裁判。

原駝650億和330億版最終得分超過ChatGPT(GPT3.5)。

0742960c-fbd8-11ed-90ce-dac502259ad0.png

人類評(píng)估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,人類來盲選哪個(gè)最好。

論文共同一作表示,研究團(tuán)隊(duì)里的人都很難分辨出來,并把測(cè)試做成了一個(gè)小游戲放在Colab上,開放給大家挑戰(zhàn)。

076a3edc-fbd8-11ed-90ce-dac502259ad0.png

這里節(jié)選其中一個(gè)問題(附中文翻譯),你能分辨出哪個(gè)是ChatGPT回答的嗎?

問題:How can I improve my time management skills?(如何提高時(shí)間管理技能?)

079eccc4-fbd8-11ed-90ce-dac502259ad0.png

總的來說,原駝的優(yōu)勢(shì)在于不容易被問題中的錯(cuò)誤信息誤導(dǎo),比如能指出地球從來沒有被科學(xué)界認(rèn)為是平的。

以及擅長(zhǎng)心智理論(Theory of Mind),也就是能推測(cè)理解他人的心理狀態(tài)

0819a64c-fbd8-11ed-90ce-dac502259ad0.png

但原駝也并非沒有弱點(diǎn),團(tuán)隊(duì)發(fā)發(fā)現(xiàn)它不太擅長(zhǎng)數(shù)學(xué),以及容易用提示注入攻擊把要求保密的信息從它嘴里套出來。

也有網(wǎng)友表示,雖然一個(gè)模型能在某個(gè)數(shù)據(jù)集上無限接近ChatGPT,但像ChatGPT那樣通用還是很難的。

全新方法QLoRA,iPhone都能微調(diào)大模型了

原駝?wù)撐牡暮诵呢暙I(xiàn)是提出新的微調(diào)方法QLoRA

其中Q代表量化(Quantization),用低精度數(shù)據(jù)類型去逼近神經(jīng)網(wǎng)絡(luò)中的高精度浮點(diǎn)數(shù),以提高運(yùn)算效率。

LoRA是微軟團(tuán)隊(duì)在2021年提出的低秩適應(yīng)(Low-Rank Adaptation)高效微調(diào)方法,LoRA后來被移植到AI繪畫領(lǐng)域更被大眾熟知,但最早其實(shí)就是用于大語言模型的。

通常來說,LoRA微調(diào)與全量微調(diào)相比效果會(huì)更差,但團(tuán)隊(duì)將LoRA添加到所有的線性層解決了這個(gè)問題。

具體來說,QLoRA結(jié)合了4-bit量化和LoRA,以及團(tuán)隊(duì)新創(chuàng)的三個(gè)技巧:新數(shù)據(jù)類型4-bit NormalFloat分頁(yè)優(yōu)化器(Paged Optimizers)和雙重量化(Double Quantization)。

最終QLoRA讓4-bit的原駝在所有場(chǎng)景和規(guī)模的測(cè)試中匹配16-bit的性能

0896aea8-fbd8-11ed-90ce-dac502259ad0.png

QLoRA的高效率,讓團(tuán)隊(duì)在華盛頓大學(xué)的小型GPU集群上每天可以微調(diào)LLaMA 100多次……

最終使用Open Assistant數(shù)據(jù)集微調(diào)的版本性能勝出,成為原駝大模型。

Open Assistant數(shù)據(jù)集來自非盈利研究組織LAION(訓(xùn)練Stable Diffusion的數(shù)據(jù)集也來自這里),雖然只有9000個(gè)樣本但質(zhì)量很高,經(jīng)過開源社區(qū)的人工仔細(xì)驗(yàn)證。

這9000條樣本用于微調(diào)大模型,比100萬條指令微調(diào)(Instruction Finetune)樣本的谷歌FLAN v2效果還好。

研究團(tuán)隊(duì)也據(jù)此提出兩個(gè)關(guān)鍵結(jié)論:

指令微調(diào)有利于推理,但不利于聊天

最后,QLoRA的高效率,還意味著可以用在手機(jī)上,論文共同一作Tim Dettmers估計(jì)以iPhone 12 Plus的算力每個(gè)晚上能微調(diào)300萬個(gè)單詞的數(shù)據(jù)量。

這意味著,很快手機(jī)上的每個(gè)App都能用上專用大模型。
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • iPhone
    +關(guān)注

    關(guān)注

    28

    文章

    13500

    瀏覽量

    206206
  • 顯存
    +關(guān)注

    關(guān)注

    0

    文章

    112

    瀏覽量

    13893
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3521

    瀏覽量

    50430

原文標(biāo)題:開源「原駝」爆火,iPhone都能微調(diào)大模型了,得分逼近ChatGPT!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    使用OpenVINO?訓(xùn)練擴(kuò)展對(duì)水平文本檢測(cè)模型進(jìn)行微調(diào),收到錯(cuò)誤信息是怎么回事?

    已針對(duì)水平文本檢測(cè)模型運(yùn)行OpenVINO?訓(xùn)練擴(kuò)展中的 微調(diào) 步驟,并收到錯(cuò)誤消息: RuntimeError: Failed to find annotation files
    發(fā)表于 03-05 06:48

    iPhone X Plus和iPhone 9的最新消息模型機(jī)和保護(hù)殼的體驗(yàn)

    國(guó)外有網(wǎng)友帶來了最新的 iPhone X Plus 和 iPhone 9 模型機(jī)和保護(hù)殼上手體驗(yàn)。傳言稱 iPhone X Plus 搭載 6.5 寸顯示屏,而
    的頭像 發(fā)表于 07-07 10:43 ?4646次閱讀

    蘋果新款iPhone X Plus和LCD iPhone的機(jī)器模型泄露

    手機(jī)圈內(nèi)比較知名的爆料者,爆料了兩款據(jù)稱是蘋果 2018 年新一代 iPhone 的機(jī)器模型,包括 6.5 英寸 iPhone X Plus 和 6.1 英寸LCD iPhone
    發(fā)表于 07-31 00:04 ?936次閱讀

    文本分類任務(wù)的Bert微調(diào)trick大全

    1 前言 大家現(xiàn)在打比賽對(duì)預(yù)訓(xùn)練模型非常喜愛,基本上作為NLP比賽基線首選(圖像分類也有預(yù)訓(xùn)練模型)。預(yù)訓(xùn)練模型雖然很強(qiáng),可能通過簡(jiǎn)單的微調(diào)就能給我們帶來很大提升,但是大家會(huì)發(fā)現(xiàn)比賽做
    的頭像 發(fā)表于 07-18 09:49 ?2799次閱讀

    使用NVIDIA TAO工具包和Appen實(shí)現(xiàn)AI模型微調(diào)

    NVIDIA?TAO 工具包與 Appen 的數(shù)據(jù)平臺(tái)相結(jié)合,使您能夠訓(xùn)練、微調(diào)和優(yōu)化預(yù)訓(xùn)練模型,以更快地啟動(dòng)人工智能解決方案。在不犧牲質(zhì)量的情況下,將開發(fā)時(shí)間縮短十倍。在NVIDIA 和 Appen 的綜合專業(yè)知識(shí)和工具的幫助下,您將滿懷信心地推出人工智能。
    的頭像 發(fā)表于 04-13 15:29 ?1715次閱讀
    使用NVIDIA TAO工具包和Appen實(shí)現(xiàn)AI<b class='flag-5'>模型</b><b class='flag-5'>微調(diào)</b>

    有哪些省內(nèi)存的大語言模型訓(xùn)練/微調(diào)/推理方法?

    首先,我們需要了解如何根據(jù)參數(shù)量估計(jì)模型大致所需的 RAM,這在實(shí)踐中有很重要的參考意義。我們需要通過估算設(shè)置 batch_size,設(shè)置模型精度,選擇微調(diào)方法和參數(shù)分布方法等。
    的頭像 發(fā)表于 04-10 11:41 ?1953次閱讀

    調(diào)教LLaMA類模型沒那么難,LoRA將模型微調(diào)縮減到幾小時(shí)

    工智能領(lǐng)域,以高效和有效的方式使用大型語言模型正變得越來越重要。 LoRA(Low-Rank Adaption,低秩自適應(yīng)) 作為微調(diào) LLMs 一種比較出圈的技術(shù),其額外引入了可訓(xùn)練的低秩分解矩陣,同時(shí)固定住預(yù)訓(xùn)練權(quán)重,從而大大減少了下游任務(wù)的可訓(xùn)練參數(shù)數(shù)量。
    的頭像 發(fā)表于 05-28 10:58 ?3248次閱讀
    調(diào)教LLaMA類<b class='flag-5'>模型</b>沒那么難,LoRA將<b class='flag-5'>模型</b><b class='flag-5'>微調(diào)</b>縮減到幾小時(shí)

    中軟國(guó)際參加首期百度智能云文心千帆大模型SFT微調(diào)能力實(shí)訓(xùn)營(yíng)

    2023年7月15日,中軟國(guó)際受邀在百度大廈參加了首期百度智能云文心千帆大模型SFT微調(diào)能力實(shí)訓(xùn)營(yíng)。此次培訓(xùn)旨在提高合作伙伴對(duì)大模型的理解和落地能力,更好地幫助客戶落地大模型和相關(guān)應(yīng)用
    的頭像 發(fā)表于 07-17 18:15 ?1043次閱讀
    中軟國(guó)際參加首期百度智能云文心千帆大<b class='flag-5'>模型</b>SFT<b class='flag-5'>微調(diào)</b>能力實(shí)訓(xùn)營(yíng)

    OpenAI開放大模型微調(diào)功能 GPT-3.5可以打造專屬ChatGPT

    OpenAI開放大模型微調(diào)功能 GPT-3.5可以打造專屬ChatGPT OpenAI開放大模型微調(diào)功能,這意味著GPT-3.5 Turbo支持自定義
    的頭像 發(fā)表于 08-23 19:34 ?1846次閱讀

    OpenAI開放大模型微調(diào)功能!

    除了提高性能之外,還能縮短提示時(shí)間,確保類似性能。另外,微調(diào)目前僅支持處理4000 tokens,這也是此前微調(diào)型號(hào)的兩倍。16k tokens微調(diào)將于今年秋季推出。
    的頭像 發(fā)表于 08-24 16:39 ?933次閱讀
    OpenAI開放大<b class='flag-5'>模型</b><b class='flag-5'>微調(diào)</b>功能!

    盤古大模型3.0是什么?

    從整體上看,盤古大模型分為3個(gè)訓(xùn)練階段。一是事前培訓(xùn),利用龐大數(shù)據(jù)進(jìn)行事前培訓(xùn),獲得通用基礎(chǔ)模型;二是針對(duì)微調(diào),下游行業(yè)的具體任務(wù),結(jié)合行業(yè)數(shù)據(jù)進(jìn)行微調(diào)。三是將大型
    的頭像 發(fā)表于 09-05 09:43 ?2825次閱讀

    一種新穎的大型語言模型知識(shí)更新微調(diào)范式

    我們使用LLAMA2-7B作為實(shí)驗(yàn)的基礎(chǔ)模型。我們主要評(píng)估將舊知識(shí)更新為新知識(shí)的能力,因此模型將首先在舊知識(shí)上進(jìn)行為期3個(gè)時(shí)期的微調(diào)。表1中F-Learning中設(shè)置的超參數(shù)λ分別取值為0.3、0.7、0.1和1.5。
    發(fā)表于 12-01 15:10 ?650次閱讀
    一種新穎的大型語言<b class='flag-5'>模型</b>知識(shí)更新<b class='flag-5'>微調(diào)</b>范式

    四種微調(diào)模型的方法介紹

    微調(diào)(Full Fine-tuning):全微調(diào)是指對(duì)整個(gè)預(yù)訓(xùn)練模型進(jìn)行微調(diào),包括所有的模型參數(shù)。在這種方法中,預(yù)訓(xùn)練
    發(fā)表于 01-03 10:57 ?2.6w次閱讀
    四種<b class='flag-5'>微調(diào)</b>大<b class='flag-5'>模型</b>的方法介紹

    模型為什么要微調(diào)?大模型微調(diào)的原理

    難以達(dá)到最佳性能。為了提升模型在特定任務(wù)上的表現(xiàn),微調(diào)(Fine-tuning)成為了一個(gè)關(guān)鍵步驟。本文將詳細(xì)探討大模型為什么要進(jìn)行微調(diào)以及微調(diào)
    的頭像 發(fā)表于 07-10 10:43 ?7377次閱讀
    主站蜘蛛池模板: 日韩毛片高清在线看 | 羞涩妩媚玉腿呻吟嗯啊销魂迎合 | 午夜噜噜噜私人影院在线播放 | 国产精品毛片一区二区三区 | 久久国产精品系列 | 蕾丝视频成人★在线观看 | 久久sp | 女女色综合影院 | 国产精品资源在线观看 | 六月丁香深爱六月综合激情 | 婷婷色天使在线视频观看 | 欧美色图28p | 美女被猛男躁免费视频网站 | 视频色版| 午夜逼逼| 久久99久久精品国产只有 | 四虎影院永久免费 | 亚洲一区二区免费看 | 亚洲国产精品综合久久久 | 1024在线观看你懂的 | 开心色99×xxxx| 精品国产1000部91麻豆 | 亚洲一级毛片免费在线观看 | 99热最新网址 | 欧美影院在线 | 亚洲三级在线免费观看 | 欧美一级视频高清片 | 天堂在线网 | 久久国产午夜精品理论篇小说 | 亚洲午夜久久久久国产 | 国产三级自拍视频 | 美女很黄很黄是免费的·无遮挡网站 | 337p亚洲精品色噜噜狠狠 | 无遮挡很爽很污很黄很色的网站 | 久久福利青草精品资源站免费 | 国产视频一二三 | 可以直接看的黄址 | 欧美伊人网 | 国产精品护士 | 欧美肉到失禁高h视频在线 欧美三级成人 | www伊人|