在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于Llama 2的一切資源,我們都幫你整理好了

深度學(xué)習(xí)自然語言處理 ? 來源:Hugging Face ? 2023-08-23 15:40 ? 次閱讀

Llama 2 是一個由 Meta 開發(fā)的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業(yè)用途。Llama 2 預(yù)訓(xùn)練模型在 2 萬億個標(biāo)記上進(jìn)行訓(xùn)練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調(diào)模型則在超過 100 萬個人工標(biāo)注數(shù)據(jù)下完成。

這篇博客包含了所有的相關(guān)資源,以幫助您快速入門。

來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 發(fā)布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個可訓(xùn)練參數(shù)。與原版 LLaMA 相比,新的改進(jìn)包括:

  • 在 2 萬億個標(biāo)記的文本數(shù)據(jù)上進(jìn)行訓(xùn)練
  • 允許商業(yè)使用
  • 默認(rèn)使用 4096 個前后文本視野
  • 70B 模型采用了分組查詢注意力(GQA)
  • 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2

即刻解鎖 Llama2

有幾個不同的游樂場供與 Llama 2 來測試:

HuggingChat

在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat

Hugging Face Space 應(yīng)用

我們在 Space 應(yīng)用上提供了三個大小的 Llama 2 模型的體驗,分別是:

  • 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
  • 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
  • 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI

Perplexity

Perplexity 的對話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/

Llama 2 背后的研究工作

Llama 2 是一個基礎(chǔ)大語言模型,它由網(wǎng)絡(luò)上公開可獲取到的數(shù)據(jù)訓(xùn)練完成。另外 Meta 同時發(fā)布了它的 Chat 版本。Chat 模型的第一個版本是 SFT(有監(jiān)督調(diào)優(yōu))模型。在這之后,LLaMA-2-chat 逐步地經(jīng)過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)來進(jìn)化。RLHF 的過程使用了拒絕采樣與近端策略優(yōu)化(PPO)的技術(shù)來進(jìn)一步調(diào)優(yōu)聊天機(jī)器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對此過程背后的過程感興趣則請查看:

  • Llama 2: 開源并已微調(diào)的聊天模型https://arxiv.org/abs/2307.09288
  • Llama 2: 一個超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
  • Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco

Llama 2 的性能有多好,基準(zhǔn)測試?

Meta 表示:

Llama 2 在眾多外部基準(zhǔn)測試中都優(yōu)于其他開源的語言模型,包括推理、編程、熟練程度與知識測驗。

關(guān)于其性能你可以在這里找到更多信息

  • Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
  • Meta 官方公告https://ai.meta.com/llama/

如何為 LLaMA 2 Chat 寫提示詞 (prompts)

Llama 2 Chat 是一個開源對話模型。想要與 Llama 2 Chat 進(jìn)行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復(fù)。Meta 并沒有選擇最簡單的提示詞結(jié)構(gòu)。

以下是單輪、多輪對話的提示詞模板。提示詞模板遵循模型訓(xùn)練過程,你可以在這里查看到詳細(xì)描述:

  • Llama 2 論文https://hf.co/papers/2307.09288
  • Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/

單輪對話

[INST]<>
{{system_prompt}}
<>

{{user_message}}[/INST]

多輪對話

[INST]<>
{{system_prompt}}
<>

{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何訓(xùn)練 LLaMA 2

因 LLaMA 2 為開源模型,使得可以輕易的通過微調(diào)技術(shù),比如 PEFT,來訓(xùn)練它。這是一些非日適合于訓(xùn)練你自己版本 LLaMA 2 的學(xué)習(xí)資源:

  • 擴(kuò)展指引:指令微調(diào) Llama 2https://www.philschmid.de/instruction-tune-llama-2
  • 在 Amazon SageMaker 上微調(diào) Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
  • 使用 PEFT 技術(shù)微調(diào)https://hf.co/blog/zh/llama2#fine-tuning-with-peft
  • Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
  • 在本地機(jī)器上微調(diào) LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 Llama 2?

Llama 2 可以在本地環(huán)境部署,使用托管服務(wù)如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。

你可以查閱下述資源:

  • llama.cpphttps://github.com/ggerganov/llama.cpp
  • 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
  • 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
  • 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31574

    瀏覽量

    270391
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3408

    瀏覽量

    42721
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    539

    瀏覽量

    10342

原文標(biāo)題:關(guān)于 Llama 2 的一切資源,我們都幫你整理好了

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    CES 2025 “AI+一切”成為關(guān)鍵趨勢

    是中國的企業(yè)。尤其是AI技術(shù)在各個領(lǐng)域的全面應(yīng)用,讓我們大開眼界的同時,有機(jī)會透過這些現(xiàn)代科技看見更美好的未來。 作為 AI 芯片領(lǐng)域的領(lǐng)軍者,英偉達(dá) CEO 黃仁勛重磅發(fā)布了新代 GeForce RTX 50 系?列顯卡。還首次發(fā)布了世界模型 Cosmos Nemot
    的頭像 發(fā)表于 01-15 10:32 ?210次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是個開源的大語言模型服務(wù)工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運(yùn)行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》,
    的頭像 發(fā)表于 11-23 17:22 ?1732次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> 3.2 Vision模型本地部署

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的模型陣容,包含視覺語言模型(VLM)、小語言模型(SLM)和支持視覺的更新版 Llama Guard 模型。與 NVIDIA 加速
    的頭像 發(fā)表于 11-20 09:59 ?314次閱讀

    KUKA機(jī)器人socket通訊配置方法

    庫卡 socket 一切關(guān)于 socket 配置的操作,基于個或多個 xml 文件。
    的頭像 發(fā)表于 10-31 10:27 ?908次閱讀
    KUKA機(jī)器人socket通訊配置方法

    Llama 3 的未來發(fā)展趨勢

    在科技迅猛發(fā)展的今天,人工智能和機(jī)器學(xué)習(xí)已經(jīng)成為推動社會進(jìn)步的重要力量。Llama 3,作為個劃時代的產(chǎn)品,正以其獨特的設(shè)計理念和卓越的性能,預(yù)示著未來科技的新方向。 Llama
    的頭像 發(fā)表于 10-27 14:44 ?452次閱讀

    深入理解 Llama 3 的架構(gòu)設(shè)計

    在人工智能領(lǐng)域,對話系統(tǒng)的發(fā)展直是研究的熱點之。隨著技術(shù)的進(jìn)步,我們見證了從簡單的基于規(guī)則的系統(tǒng)到復(fù)雜的基于機(jī)器學(xué)習(xí)的模型的轉(zhuǎn)變。Llama 3,作為
    的頭像 發(fā)表于 10-27 14:41 ?645次閱讀

    Llama 3 適合的行業(yè)應(yīng)用

    在當(dāng)今快速發(fā)展的技術(shù)時代,各行各業(yè)都在尋求通過人工智能(AI)來提高效率、降低成本并增強(qiáng)用戶體驗。Llama 3,作為個先進(jìn)的AI平臺,以其強(qiáng)大的數(shù)據(jù)處理能力和用戶友好的界面,成為了眾多行業(yè)的新寵
    的頭像 發(fā)表于 10-27 14:28 ?381次閱讀

    Llama 3 與 GPT-4 比較

    隨著人工智能技術(shù)的飛速發(fā)展,我們見證了代又代的AI模型不斷突破界限,為各行各業(yè)帶來革命性的變化。在這場技術(shù)競賽中,Llama 3和GPT-4作為兩個備受矚目的模型,它們代表了當(dāng)前A
    的頭像 發(fā)表于 10-27 14:17 ?550次閱讀

    Llama 3 語言模型應(yīng)用

    在人工智能領(lǐng)域,語言模型的發(fā)展直是研究的熱點。隨著技術(shù)的不斷進(jìn)步,我們見證了從簡單的關(guān)鍵詞匹配到復(fù)雜的上下文理解的轉(zhuǎn)變。 Llama 3 語言模型的核心功能 上下文理解 :
    的頭像 發(fā)表于 10-27 14:15 ?367次閱讀

    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:個多語言大型語言模型(LLMs)的集合。
    的頭像 發(fā)表于 10-12 09:39 ?721次閱讀
    使用OpenVINO 2024.4在算力魔方上部署<b class='flag-5'>Llama</b>-3.2-1B-Instruct模型

    [技術(shù)] 【飛凌嵌入式OK3576-C開發(fā)板體驗】llama2.c部署

    llama2.c 是個用純 C 語言實現(xiàn)的輕量級推理引擎,無需依賴任何第三方庫即可高效地進(jìn)行推理任務(wù)。與 llama.cpp 相比,其代碼更加直觀易懂,并且可以在 PC、嵌入式 Linux 乃至
    發(fā)表于 09-18 23:58

    HDMI一切四方案DP一切四最新方案

    HDMI4方案該方案目前是采用的深圳市芯視音科技最新研發(fā)的CV1021E基礎(chǔ)開發(fā)的有需要可有聯(lián)系賴工拿資料
    的頭像 發(fā)表于 08-23 16:00 ?454次閱讀
    HDMI<b class='flag-5'>一切</b>四方案DP<b class='flag-5'>一切</b>四最新方案

    Llama 3 王者歸來,Airbox 率先支持部署

    前天,智算領(lǐng)域迎來則令人振奮的消息:Meta正式發(fā)布了備受期待的開源大模型——Llama3。Llama3的卓越性能Meta表示,Llama3在多個關(guān)鍵基準(zhǔn)測試中展現(xiàn)出卓越性能,超越了
    的頭像 發(fā)表于 04-22 08:33 ?723次閱讀
    <b class='flag-5'>Llama</b> 3 王者歸來,Airbox 率先支持部署

    關(guān)于ESS和BMS,您需要了解的一切

    操作條件下其功能仍然可以安全和可靠的運(yùn)行。個優(yōu)秀的BMS除了能保證電池安全運(yùn)行以外,還可幫助電池實現(xiàn)最大化電池容量使和最長可達(dá)十年以上的電池使用壽命。關(guān)于BMS技
    的頭像 發(fā)表于 03-23 08:22 ?775次閱讀
    <b class='flag-5'>關(guān)于</b>ESS和BMS,您需要了解的<b class='flag-5'>一切</b>

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 發(fā)布的 LLaMA 2,是新的 sota 開源大型語言模型 (LLM)。LLaMA 2 代表著 LLaMA 的下
    的頭像 發(fā)表于 02-21 16:00 ?1242次閱讀
    主站蜘蛛池模板: 国产大乳喷奶水在线看 | 伊人久久大杳蕉综合大象 | 欧美日韩中文字幕在线 | 婷婷六月在线 | 国产成在线观看免费视频 | 99久久99| 日本不卡免费高清一级视频 | 国产69精品久久 | 朋友夫妇和交换性bd高清 | 国产在线精品美女观看 | 毛片综合| 日韩欧美高清一区 | 看全黄大片狐狸视频在线观看 | 日韩精品在线一区二区 | 精品一区二区三区免费毛片爱 | 奇米福利视频 | 成人午夜精品久久久久久久小说 | 福利一级片 | 激情五月激情综合 | 亚洲美女视频一区二区三区 | 中国黄色一级毛片 | 午夜在线免费视频 | 三级理论在线 | 一本到卡二卡三卡视频 | 美女被网站免费看九色视频 | 老色批软件 | 亚洲黄色网址在线观看 | 国产天美 | 每日最新avhd101天天看新片 | 成人午夜免费视频 | 天天摸天天摸天天躁 | 性欧美高清久久久久久久 | 国产女人伦码一区二区三区不卡 | 一级视频在线观看免费 | 中国女人a毛片免费全部播放 | 成人午夜免费视频 | 在线黄色网 | 康熙古代高h细节肉爽文全文 | 日本最黄| 亚洲国产成人精品久久 | 精品一区二区三区在线视频 |