在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

開源大模型Falcon(獵鷹) 180B發(fā)布 1800億參數(shù)

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2023-09-18 09:29 ? 次閱讀

世界最強(qiáng)開源大模型 Falcon 180B 忽然火爆全網(wǎng),1800億參數(shù),F(xiàn)alcon 在 3.5 萬億 token 完成訓(xùn)練,性能碾壓 Llama 2,登頂 Hugging Face 排行榜。

今年5月,TII(阿聯(lián)酋阿布扎比技術(shù)創(chuàng)新研究所)推出了號稱是 “史上最強(qiáng)的開源大語言模型”——Falcon(獵鷹)。雖然 Falcon 的參數(shù)比 LLaMA 小,但性能卻更加強(qiáng)大。

此前,F(xiàn)alcon 已經(jīng)推出了三種模型大小,分別是1.3B、7.5B、40B。據(jù)介紹,F(xiàn)alcon 180B 是 40B 的升級版本,F(xiàn)alcon 180B 的規(guī)模是 Llama 2 的 2.5 倍,且可免費(fèi)商用。 Falcon 180B在 Hugging Face 開源大模型榜單上被認(rèn)為是當(dāng)前評分最高的開放式大模型,其評分68.74,Meta 的 LlaMA 2以 1.39 的分?jǐn)?shù)差距排名第二。

360532b2-4fcd-11ee-a25d-92fbcf53809c.png

3624d5c2-4fcd-11ee-a25d-92fbcf53809c.png

據(jù)官方介紹,F(xiàn)alcon 180B 是當(dāng)前最好的開源大模型。 其在 MMLU 上 的表現(xiàn)超過了 Llama 2 70B 和 OpenAI 的 GPT-3.5。在 HellaSwag、LAMBADA、WebQuestions、Winogrande、PIQA、ARC、BoolQ、CB、COPA、RTE、WiC、WSC 及 ReCoRD 上與谷歌的 PaLM 2-Large 不相上下。

364a2cf0-4fcd-11ee-a25d-92fbcf53809c.png

目前大家可以通過以下地址進(jìn)行Demo 體驗(yàn):https://hf.co/spaces/HuggingFaceH4/falcon-chat


硬件要求

類型 種類 最低要求 配置示例
Falcon 180B Training Full fine-tuning 5120GB 8x 8x A100 80GB
Falcon 180B Training LoRA with ZeRO-3 1280GB 2x 8x A100 80GB
Falcon 180B Training QLoRA 160GB 2x A100 80GB
Falcon 180B Inference BF16/FP16 640GB 8x A100 80GB
Falcon 180B Inference GPTQ/int4 320GB 8x A100 40GB

Prompt 格式

其基礎(chǔ)模型沒有 Prompt 格式,因?yàn)樗⒉皇且粋€(gè)對話型大模型也不是通過指令進(jìn)行的訓(xùn)練,所以它并不會以對話形式回應(yīng)。預(yù)訓(xùn)練模型是微調(diào)的絕佳平臺,但或許你不該直接使用。其對話模型則設(shè)有一個(gè)簡單的對話模式。

System: Add an optional system prompt here
User: This is the user input
Falcon: This is what the model generates
User: This might be a second turn input
Falcon: and so on

Transformers

從 Transfomers 4.33 開始,可以在 Hugging Face 上使用 Falcon 180B 并且使用 HF 生態(tài)里的所有工具。但是前提是請確保你已經(jīng)登錄了自己的 Hugging Face 賬號,并安裝了最新版本的 transformers:

pip install --upgrade transformers
huggingface-cli login
bfloat16 以下是如何在bfloat16中使用基礎(chǔ)模型的方法。Falcon 180B 是一個(gè)大型模型,所以請注意它的硬件要求(硬件要求如上所示)。
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model_id = "tiiuae/falcon-180B"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)

prompt = "My name is Pedro, I live in"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")

output = model.generate(
    input_ids=inputs["input_ids"],
    attention_mask=inputs["attention_mask"],
    do_sample=True,
    temperature=0.6,
    top_p=0.9,
    max_new_tokens=50,
)
output = output[0].to("cpu")
print(tokenizer.decode(output)

這可能會產(chǎn)生如下輸出結(jié)果:

My name is Pedro, I live in Portugal and I am 25 years old. I am a graphic designer, but I am also passionate about photography and video.
I love to travel and I am always looking for new adventures. I love to meet new people and explore new places.
使用 8 位和 4 位的 bitsandbytes Falcon 180B 的 8 位和 4 位量化版本在評估方面與bfloat16幾乎沒有差別!這對推理來說是個(gè)好消息,因?yàn)槟憧梢苑判牡厥褂昧炕姹緛斫档陀布蟆U堄涀。?8 位版本進(jìn)行推理要比 4 位版本快得多。要使用量化,你需要安裝 “bitsandbytes” 庫,并在加載模型時(shí)啟用相應(yīng)的標(biāo)志:
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    **load_in_8bit=True,**
    device_map="auto",
)
對話模型 如上所述,為跟蹤對話而微調(diào)的模型版本使用了非常直接的訓(xùn)練模板。我們必須遵循同樣的模式才能運(yùn)行聊天式推理。作為參考,你可以看看聊天演示中的format_prompt函數(shù):
def format_prompt(message, history, system_prompt):
    prompt = ""
    if system_prompt:
        prompt += f"System: {system_prompt}
"
    for user_prompt, bot_response in history:
        prompt += f"User: {user_prompt}
"
        prompt += f"Falcon: {bot_response}
"
        prompt += f"User: {message}
Falcon:"
    return prompt
如你所見,用戶的交互和模型的回應(yīng)前面都有User:和Falcon:分隔符。我們將它們連接在一起,形成一個(gè)包含整個(gè)對話歷史的提示。這樣就可以提供一個(gè)系統(tǒng)提示來調(diào)整生成風(fēng)格。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3408

    瀏覽量

    42714
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2551

    瀏覽量

    3172

原文標(biāo)題:1800億參數(shù),性能碾壓Llama 2,世界最強(qiáng)開源大模型Falcon 180B發(fā)布

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    中國電提出大模型推理加速新范式Falcon

    近日,中國電信翼支付針對大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through
    的頭像 發(fā)表于 01-15 13:49 ?126次閱讀
    中國電提出大<b class='flag-5'>模型</b>推理加速新范式<b class='flag-5'>Falcon</b>

    Meta重磅發(fā)布Llama 3.3 70B開源AI模型的新里程碑

    ?在人工智能領(lǐng)域,Meta的最新動(dòng)作再次引起了全球的關(guān)注。今天,我們見證了Meta發(fā)布的 Llama 3.3 70B 模型,這是一個(gè)開源的人工智能
    的頭像 發(fā)表于 12-18 16:46 ?211次閱讀
    Meta重磅<b class='flag-5'>發(fā)布</b>Llama 3.3 70<b class='flag-5'>B</b>:<b class='flag-5'>開源</b>AI<b class='flag-5'>模型</b>的新里程碑

    中國移動(dòng)與中國石油發(fā)布700參數(shù)昆侖大模型

    近日,中國移動(dòng)與中國石油在北京聯(lián)合舉辦了700參數(shù)昆侖大模型建設(shè)成果發(fā)布會,正式推出了這一行業(yè)重量級的大模型。 據(jù)悉,700
    的頭像 發(fā)表于 12-04 11:17 ?453次閱讀

    獵戶星空發(fā)布Orion-MoE 8×7B模型及AI數(shù)據(jù)寶AirDS

    。 Orion-MoE 8×7B是獵戶星空精心打造的開源混合架構(gòu)專家大模型,該模型擁有高達(dá)8×70
    的頭像 發(fā)表于 11-29 13:57 ?305次閱讀

    AMD發(fā)布10參數(shù)開源AI模型OLMo

    AMD公司近日宣布了一項(xiàng)重大進(jìn)展,推出了首個(gè)完全開放的10參數(shù)語言模型系列——AMD OLMo。這一舉措為開發(fā)者和研究人員提供了強(qiáng)大的AI研究工具,有助于推動(dòng)AI技術(shù)的進(jìn)一步發(fā)展。
    的頭像 發(fā)表于 11-12 18:08 ?507次閱讀

    騰訊發(fā)布開源MoE大語言模型Hunyuan-Large

    的性能,標(biāo)志著騰訊在自然語言處理領(lǐng)域邁出了重要的一步。 據(jù)了解,Hunyuan-Large的總參數(shù)量高達(dá)389B(即3890),這一數(shù)字遠(yuǎn)超當(dāng)前許多主流的大語言模型。而其激活
    的頭像 發(fā)表于 11-06 10:57 ?373次閱讀

    中國石油發(fā)布330參數(shù)昆侖大模型

    中國石油在近日于北京舉行的成果發(fā)布會上,震撼發(fā)布了擁有330參數(shù)的昆侖大模型,標(biāo)志著中國能源化工行業(yè)正式邁入大
    的頭像 發(fā)表于 08-29 18:10 ?950次閱讀

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個(gè)擁有驚人4050參數(shù)
    的頭像 發(fā)表于 07-18 09:58 ?1069次閱讀

    英偉達(dá)開源Nemotron-4 340B系列模型,助力大型語言模型訓(xùn)練

    近日,英偉達(dá)宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發(fā)者們打開了通往高性能大型語言模型(LLM)訓(xùn)練的新天地。該系列
    的頭像 發(fā)表于 06-17 14:53 ?634次閱讀

    智譜AI發(fā)布全新多模態(tài)開源模型GLM-4-9B

    近日,智譜AI在人工智能領(lǐng)域取得重大突破,成功推出全新開源模型GLM-4-9B。這款模型以其卓越的多模態(tài)能力,再次刷新了業(yè)界對于大型語言模型
    的頭像 發(fā)表于 06-07 09:17 ?823次閱讀

    通義千問開源千億級參數(shù)模型

    通義千問近日開源了其首個(gè)千億級參數(shù)模型Qwen1.5-110B,這是其全系列中首個(gè)達(dá)到千億級別的開源模型。Qwen1.5-110
    的頭像 發(fā)表于 05-08 11:01 ?799次閱讀

    通義千問推出1100參數(shù)開源模型

    通義千問近日震撼發(fā)布1100參數(shù)開源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千問在A
    的頭像 發(fā)表于 05-06 10:49 ?636次閱讀

    谷歌發(fā)布用于輔助編程的代碼大模型CodeGemma

    谷歌發(fā)布了用于輔助編程的代碼大模型 CodeGemma。CodeGemma 基于谷歌今年 2 月發(fā)布的輕量級開源模型 Gemma,針對 G
    的頭像 發(fā)表于 04-17 16:07 ?756次閱讀
    谷歌<b class='flag-5'>發(fā)布</b>用于輔助編程的代碼大<b class='flag-5'>模型</b>CodeGemma

    阿里云通義千問發(fā)布320參數(shù)模型,優(yōu)化性能及效率

    與之前的模型相比,新版320參數(shù)模型在性能、效率以及內(nèi)存占用方面取得了明顯改善。具體來說,32B在智能體場景下能力優(yōu)于14B
    的頭像 發(fā)表于 04-08 14:44 ?872次閱讀

    谷歌發(fā)布全球最強(qiáng)開源模型Gemma

    谷歌近日宣布,其全新開源模型Gemma正式亮相。Gemma被譽(yù)為全球性能最強(qiáng)大、同時(shí)也是最輕量級的模型系列,分為2B(20
    的頭像 發(fā)表于 02-22 14:51 ?875次閱讀
    主站蜘蛛池模板: 国产欧美日韩综合精品一区二区 | 亚洲小说区图片区另类春色 | 小泽玛利亚在线观看123 | 久久国产影视 | 久操久操久操 | 99久久99久久久99精品齐 | 欧美色婷婷天堂网站 | 欧美日一区二区三区 | www五月天com| 亚洲天堂第一页 | 欧美性色生活片天天看99 | 三级在线网站 | 亚洲特黄大黄一级毛片 | 欧美在线视频7777kkkk | 97超频国产在线公开免费视频 | 久久99国产精品免费观看 | 四虎国产精品成人永久免费影视 | 久久国产高清视频 | 人人爱干 | 日日夜夜天天干干 | 91三级在线 | 欧美婷婷色 | 欧美第四色 | 婷婷综合激情网 | 天天干天天操天天射 | 国产免费糟蹋美女视频 | 日本一本一道久久香蕉免费 | 欧美成人观看免费全部完小说 | 欧美性极品高清 | 黄黄网 | 国产男女交性视频播放免费bd | 噜噜噜色网 | 性欧美高清强烈性视频 | 国产高清免费在线 | 四虎最新地址 | www.一区二区三区 | 四虎永久在线精品2022 | 中文天堂在线视频 | 看一级特黄a大片日本片 | 欧美高清另类 | 四虎成人精品在永久在线观看 |