在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

開源大模型Falcon(獵鷹) 180B發布 1800億參數

OSC開源社區 ? 來源:OSC開源社區 ? 2023-09-18 09:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

世界最強開源大模型 Falcon 180B 忽然火爆全網,1800億參數,Falcon 在 3.5 萬億 token 完成訓練,性能碾壓 Llama 2,登頂 Hugging Face 排行榜。

今年5月,TII(阿聯酋阿布扎比技術創新研究所)推出了號稱是 “史上最強的開源大語言模型”——Falcon(獵鷹)。雖然 Falcon 的參數比 LLaMA 小,但性能卻更加強大。

此前,Falcon 已經推出了三種模型大小,分別是1.3B、7.5B、40B。據介紹,Falcon 180B 是 40B 的升級版本,Falcon 180B 的規模是 Llama 2 的 2.5 倍,且可免費商用。 Falcon 180B在 Hugging Face 開源大模型榜單上被認為是當前評分最高的開放式大模型,其評分68.74,Meta 的 LlaMA 2以 1.39 的分數差距排名第二。

360532b2-4fcd-11ee-a25d-92fbcf53809c.png

3624d5c2-4fcd-11ee-a25d-92fbcf53809c.png

據官方介紹,Falcon 180B 是當前最好的開源大模型。 其在 MMLU 上 的表現超過了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上與谷歌的 PaLM 2-Large 不相上下。

364a2cf0-4fcd-11ee-a25d-92fbcf53809c.png

目前大家可以通過以下地址進行Demo 體驗:https://hf.co/spaces/HuggingFaceH4/falcon-chat


硬件要求

類型 種類 最低要求 配置示例
Falcon 180B Training Full fine-tuning 5120GB 8x 8x A100 80GB
Falcon 180B Training LoRA with ZeRO-3 1280GB 2x 8x A100 80GB
Falcon 180B Training QLoRA 160GB 2x A100 80GB
Falcon 180B Inference BF16/FP16 640GB 8x A100 80GB
Falcon 180B Inference GPTQ/int4 320GB 8x A100 40GB

Prompt 格式

其基礎模型沒有 Prompt 格式,因為它并不是一個對話型大模型也不是通過指令進行的訓練,所以它并不會以對話形式回應。預訓練模型是微調的絕佳平臺,但或許你不該直接使用。其對話模型則設有一個簡單的對話模式。

System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on

Transformers

從 Transfomers 4.33 開始,可以在 Hugging Face 上使用 Falcon 180B 并且使用 HF 生態里的所有工具。但是前提是請確保你已經登錄了自己的 Hugging Face 賬號,并安裝了最新版本的 transformers:

pip install --upgrade transformers
huggingface-cli login
bfloat16 以下是如何在bfloat16中使用基礎模型的方法。Falcon 180B 是一個大型模型,所以請注意它的硬件要求(硬件要求如上所示)。
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model_id = "tiiuae/falcon-180B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"],
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
    max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

這可能會產生如下輸出結果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.
使用 8 位和 4 位的 bitsandbytes Falcon 180B 的 8 位和 4 位量化版本在評估方面與bfloat16幾乎沒有差別!這對推理來說是個好消息,因為你可以放心地使用量化版本來降低硬件要求。請記住,在 8 位版本進行推理要比 4 位版本快得多。要使用量化,你需要安裝 “bitsandbytes” 庫,并在加載模型時啟用相應的標志:
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    **load_in_8bit=True,**
    device_map="auto",
)
對話模型 如上所述,為跟蹤對話而微調的模型版本使用了非常直接的訓練模板。我們必須遵循同樣的模式才能運行聊天式推理。作為參考,你可以看看聊天演示中的format_prompt函數:
def format_prompt(message, history, system_prompt):
    prompt = ""
    if system_prompt:
        prompt += f"System: {system_prompt}
"
    for user_prompt, bot_response in history:
        prompt += f"User: {user_prompt}
"
        prompt += f"Falcon: {bot_response}
"
        prompt += f"User: {message}
Falcon:"
    return prompt
如你所見,用戶的交互和模型的回應前面都有User:和Falcon:分隔符。我們將它們連接在一起,形成一個包含整個對話歷史的提示。這樣就可以提供一個系統提示來調整生成風格。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3636

    瀏覽量

    43631
  • 大模型
    +關注

    關注

    2

    文章

    3072

    瀏覽量

    3948

原文標題:1800億參數,性能碾壓Llama 2,世界最強開源大模型Falcon 180B發布

文章出處:【微信號:OSC開源社區,微信公眾號:OSC開源社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為助力中國石油發布3000參數昆侖大模型

    5月28日,中國石油發布3000參數昆侖大模型,標志著中國石油在人工智能領域又邁出關鍵一步,全力推動“人工智能+”行動走深走實。 ? 中國石油發布
    的頭像 發表于 05-29 09:19 ?450次閱讀
    華為助力中國石油<b class='flag-5'>發布</b>3000<b class='flag-5'>億</b><b class='flag-5'>參數</b>昆侖大<b class='flag-5'>模型</b>

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家
    的頭像 發表于 05-08 11:45 ?979次閱讀
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳實踐

    摩爾線程支持阿里云通義千問QwQ-32B開源模型

    近日,阿里云團隊正式開源全新推理模型——通義千問QwQ-32B。摩爾線程在該模型發布后2小時內,迅速且高效完成了對千問QwQ-32
    的頭像 發表于 03-07 17:48 ?655次閱讀
    摩爾線程支持阿里云通義千問QwQ-32<b class='flag-5'>B</b><b class='flag-5'>開源</b><b class='flag-5'>模型</b>

    中國電提出大模型推理加速新范式Falcon

    近日,中國電信翼支付針對大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through
    的頭像 發表于 01-15 13:49 ?820次閱讀
    中國電提出大<b class='flag-5'>模型</b>推理加速新范式<b class='flag-5'>Falcon</b>

    阿里云發布開源多模態推理模型QVQ-72B-Preview

    近日,阿里云宣布了一項重大技術突破,正式發布了業界首個開源多模態推理模型——QVQ-72B-Preview。這一模型的問世,標志著阿里云在A
    的頭像 發表于 12-27 10:28 ?566次閱讀

    圖森未來發布“Ruyi”視頻大模型,Ruyi-Mini-7B版本現已開源

    重大獻禮。 尤為值得一提的是,圖森未來已經將Ruyi的Mini-7B版本正式開源,用戶現在可以通過huggingface平臺輕松下載并使用這一強大的工具。這一舉措無疑將極大地推動視頻大模型在更廣泛領域的應用和發展。 “Ruyi”
    的頭像 發表于 12-20 15:19 ?1379次閱讀

    Meta重磅發布Llama 3.3 70B開源AI模型的新里程碑

    ?在人工智能領域,Meta的最新動作再次引起了全球的關注。今天,我們見證了Meta發布的 Llama 3.3 70B 模型,這是一個開源的人工智能
    的頭像 發表于 12-18 16:46 ?555次閱讀
    Meta重磅<b class='flag-5'>發布</b>Llama 3.3 70<b class='flag-5'>B</b>:<b class='flag-5'>開源</b>AI<b class='flag-5'>模型</b>的新里程碑

    中國移動與中國石油發布700參數昆侖大模型

    近日,中國移動與中國石油在北京聯合舉辦了700參數昆侖大模型建設成果發布會,正式推出了這一行業重量級的大模型。 據悉,700
    的頭像 發表于 12-04 11:17 ?860次閱讀

    獵戶星空發布Orion-MoE 8×7B模型及AI數據寶AirDS

    。 Orion-MoE 8×7B是獵戶星空精心打造的開源混合架構專家大模型,該模型擁有高達8×70
    的頭像 發表于 11-29 13:57 ?623次閱讀

    阿里通義千問代碼模型全系列開源

    近日,阿里云通義大模型團隊宣布了一項重大決策:將通義千問代碼模型全系列正式開源。此次開源模型系列共包含6款Qwen2.5-Coder
    的頭像 發表于 11-14 15:26 ?914次閱讀

    AMD發布10參數開源AI模型OLMo

    AMD公司近日宣布了一項重大進展,推出了首個完全開放的10參數語言模型系列——AMD OLMo。這一舉措為開發者和研究人員提供了強大的AI研究工具,有助于推動AI技術的進一步發展。
    的頭像 發表于 11-12 18:08 ?752次閱讀

    騰訊發布開源MoE大語言模型Hunyuan-Large

    的性能,標志著騰訊在自然語言處理領域邁出了重要的一步。 據了解,Hunyuan-Large的總參數量高達389B(即3890),這一數字遠超當前許多主流的大語言模型。而其激活
    的頭像 發表于 11-06 10:57 ?681次閱讀

    中國石油發布330參數昆侖大模型

    中國石油在近日于北京舉行的成果發布會上,震撼發布了擁有330參數的昆侖大模型,標志著中國能源化工行業正式邁入大
    的頭像 發表于 08-29 18:10 ?1303次閱讀

    英偉達震撼發布:全新AI模型參數規模躍升至80量級

    8月23日,英偉達宣布,其全新AI模型面世,該模型參數規模高達80,具有精度高、計算效益大等優勢,適用于GPU加速的數據中心、云及工作站環境。
    的頭像 發表于 08-23 16:08 ?1057次閱讀

    Meta即將發布超強開源AI模型Llama 3-405B

    在人工智能領域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發布其最新力作——Llama 3-405B,一個擁有驚人4050參數
    的頭像 發表于 07-18 09:58 ?1300次閱讀
    主站蜘蛛池模板: 午夜男人网 | 久久午夜神器 | 午夜精品久久久久久久99 | 华人黄网站大全 | 全国男人天堂网 | 国产精品性| 久久久久久久国产精品影院 | 凹厕所xxxxbbbb偷拍视频 | 日本黄色免费在线观看 | 日本四虎影院 | 天天看夜夜操 | 亚欧色视频在线观看免费 | 人人草人人爱 | 理论在线看 | 精品伊人久久香线蕉 | 看久久 | 奇米影视四色7777 | 中文字幕自拍 | 亚洲人成电影在线观看网 | 在线天堂中文官网 | 日本亚洲卡一卡2卡二卡三卡四卡 | 天天在线看片 | 流不尽奶水的大乳h | 亚洲综人网 | 成 人网站免费 | 爱爱动态视频免费视频 | a亚洲 | 天堂在线观看视频观看www | 日韩成人毛片高清视频免费看 | 午夜亚洲视频 | 国产精品午夜免费观看网站 | 久久亚洲精品国产亚洲老地址 | 色香焦| 手机看片福利在线 | 欧美一级片手机在线观看 | 免费人成在线观看网站 | 91国内在线视频 | 可以直接看的黄色网址 | 黄色网免费观看 | 色第一页 | 午夜免费理论片在线看 |