Llama 2 是一個由 Meta 開發的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業用途。Llama 2 預訓練模型在 2 萬億個標記上進行訓練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調模型則在超過 100 萬個人工標注數據下完成。
這篇博客包含了所有的相關資源,以幫助您快速入門。
來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/
LLaMA 2 是什么?
Meta 發布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個可訓練參數。與原版 LLaMA 相比,新的改進包括:
- 在 2 萬億個標記的文本數據上進行訓練
- 允許商業使用
- 默認使用 4096 個前后文本視野
- 70B 模型采用了分組查詢注意力(GQA)
- 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2
即刻解鎖 Llama2
有幾個不同的游樂場供與 Llama 2 來測試:
HuggingChat
在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat
Hugging Face Space 應用
我們在 Space 應用上提供了三個大小的 Llama 2 模型的體驗,分別是:
- 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
- 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
- 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI
Perplexity
Perplexity 的對話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/
Llama 2 背后的研究工作
Llama 2 是一個基礎大語言模型,它由網絡上公開可獲取到的數據訓練完成。另外 Meta 同時發布了它的 Chat 版本。Chat 模型的第一個版本是 SFT(有監督調優)模型。在這之后,LLaMA-2-chat 逐步地經過人類反饋強化學習(RLHF)來進化。RLHF 的過程使用了拒絕采樣與近端策略優化(PPO)的技術來進一步調優聊天機器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對此過程背后的過程感興趣則請查看:
- Llama 2: 開源并已微調的聊天模型https://arxiv.org/abs/2307.09288
- Llama 2: 一個超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
- Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco
Llama 2 的性能有多好,基準測試?
Meta 表示:
Llama 2 在眾多外部基準測試中都優于其他開源的語言模型,包括推理、編程、熟練程度與知識測驗。
關于其性能你可以在這里找到更多信息:
- Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
- Meta 官方公告https://ai.meta.com/llama/
如何為 LLaMA 2 Chat 寫提示詞 (prompts)
Llama 2 Chat 是一個開源對話模型。想要與 Llama 2 Chat 進行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復。Meta 并沒有選擇最簡單的提示詞結構。
以下是單輪、多輪對話的提示詞模板。提示詞模板遵循模型訓練過程,你可以在這里查看到詳細描述:
- Llama 2 論文https://hf.co/papers/2307.09288
- Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/
單輪對話
[INST]<>
{{system_prompt}}
< >
{{user_message}}[/INST]
多輪對話
[INST]<>
{{system_prompt}}
< >
{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]
如何訓練 LLaMA 2
因 LLaMA 2 為開源模型,使得可以輕易的通過微調技術,比如 PEFT,來訓練它。這是一些非日適合于訓練你自己版本 LLaMA 2 的學習資源:
- 擴展指引:指令微調 Llama 2https://www.philschmid.de/instruction-tune-llama-2
- 在 Amazon SageMaker 上微調 Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
- 使用 PEFT 技術微調https://hf.co/blog/zh/llama2#fine-tuning-with-peft
- Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
- 在本地機器上微調 LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8
如何部署 Llama 2?
Llama 2 可以在本地環境部署,使用托管服務如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。
你可以查閱下述資源:
- llama.cpphttps://github.com/ggerganov/llama.cpp
- 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
- 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
- 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129
-
AI
+關注
關注
87文章
33701瀏覽量
274437 -
開源
+關注
關注
3文章
3542瀏覽量
43328 -
語言模型
+關注
關注
0文章
558瀏覽量
10615
原文標題:關于 Llama 2 的一切資源,我們都幫你整理好了
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
電話配線架怎么整理好看
CES 2025 “AI+一切”成為關鍵趨勢
用Ollama輕松搞定Llama 3.2 Vision模型本地部署

使用NVIDIA TensorRT提升Llama 3.2性能
Llama 3 的未來發展趨勢
深入理解 Llama 3 的架構設計
Llama 3 適合的行業應用
Llama 3 在自然語言處理中的優勢
Llama 3 與 GPT-4 比較
Llama 3 語言模型應用
使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

評論