在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

性能超越開源模型標桿Llama2-70B,書生·浦語大模型InternLM-20B開源發布

商湯科技SenseTime ? 來源:未知 ? 2023-09-20 16:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今日,商湯科技與上海人工智能實驗室聯合香港中文大學和復旦大學正式推出書生·浦語大模型(InternLM)200億參數版本InternLM-20B,并在阿里云魔搭社區(ModelScope)開源首發。

同時,書生·浦語面向大模型研發與應用的全鏈條工具鏈全線升級,與InternLM-20B一同繼續全面開放,向企業和開發者提供免費商用授權

今年6月首次發布以來,書生·浦語歷多輪升級,在開源社區和產業界產生廣泛影響。InternLM-20B模型性能先進且應用便捷,以不足三分之一的參數量,達到當前被視為開源模型標桿的Llama2-70B的能力水

代碼庫

https://github.com/InternLM/InternLM

魔搭社區

https://modelscope.cn/organization/Shanghai_AI_Laboratory

16e52c5e-5791-11ee-939d-92fbcf53809c.png ?

書生·浦語“增強版”

增的不只是量

相比國內社區之前陸續開源的7B和13B規格模型,20B量級模型具備更強大的綜合能力,在復雜推理和反思能力上尤為突出,因此對于實際應用能夠帶來更有力的性能支持。

另一方面,20B量級模型可以在單卡上進行推理,經過低比特量化后,可以運行在單塊消費級GPU,給實際使用帶來很大的便利。

InternLM-20B是基于2.3T Tokens預訓練語料從頭訓練的中量級語言大模型。相較于InternLM-7B,訓練語料經過更高水平的多層次清洗,補充了高知識密度和用于強化理解及推理能力的訓練數據。

在理解能力、推理能力、數學能力、編程能力等考驗語言模型技術水平方面,InternLM-20B與此前已開源模型相比,性能顯著增強:優異的綜合性能,通過更高水平的數據清洗和高知識密度的數據補充,以及更優的模型架構設計和訓練,顯著提升了模型的理解、推理、數學與編程能力。

InternLM-20B全面領先量級相近的開源模型,使之以不足三分之一的參數量,評測成績達到了被視為開源模型的標桿Llama2-70B水平。
  • 擁有強大的工具調用能力,實現大模型與現實場景的有效連接,并具備代碼解釋和反思修正能力,為智能體(Agent)的構建提供了良好的技術基礎。

  • 支持更長語境,支持長度達16K的語境窗口,更有效地支撐長文理解、長文生成和超長對話,長語境同時成為支撐在InternLM-20B之上打造智能體(Agent)的關鍵技術基礎。

  • 具備更安全的價值對齊,書生·浦語團隊對InternLM-20B進行了基于SFT(監督微調)和RLHF(基于人類反饋的強化學習方式)兩階段價值對齊以及專家紅隊的對抗訓練,當面對帶有偏見的提問時,它能夠給出正確引導。

16fbe250-5791-11ee-939d-92fbcf53809c.png基于OpenCompass的InternLM-20B及相近量級開源模型測評結果

全鏈條工具體系再鞏固

各環節全面升級

今年7月,商湯科技與上海AI實驗室聯合發布書生·浦語的同時,在業內率先開源了覆蓋數據、預訓練、微調、部署和評測的全鏈條工具體系

歷經數月升級,書生·浦語全鏈條開源工具體系鞏固升級,并向全社會提供免費商用

全面升級的全鏈條工具體系

數據-OpenDataLab開源“書生·萬卷”預訓練語料

書生·萬卷是開源的多模態語料庫,包含文本數據集、圖文數據集、視頻數據集三部分,數據總量超過2TB。

目前,書生·萬卷1.0已被應用于書生·多模態、書生·浦語的訓練,為模型性能提升起到重要作用。

預訓練-InternLM高效預訓練框架

除了大模型外,InternLM倉庫也開源了預訓練框架InternLM-Train。深度整合了Transformer模型算子,使訓練效率得到提升,并提出了獨特的Hybrid Zero技術,使訓練過程中的通信效率顯著提升,實現了高效率千卡并行,訓練性能達行業領先水平。

微調-InternLM全參數微調、XTuner輕量級微調

InternLM支持對模型進行全參數微調,支持豐富的下游應用。同時,低成本大模型微調工具箱XTuner也在近期開源,支持多種大模型及LoRA、QLoRA等微調算法

通過XTuner,最低僅需 8GB 顯存即可對7B模型進行低成本微調,在24G顯存的消費級顯卡上就能完成20B模型的微調。

部署-LMDeploy支持十億到千億參數語言模型的高效推理

LMDeploy涵蓋了大模型的全套輕量化、推理部署和服務解決方案,支持了從十億到千億級參數的高效模型推理,在吞吐量等性能上超過FasterTransformer、vLLM和Deepspeed等社區主流開源項目。

評測-OpenCompass一站式、全方位大模型評測平臺

OpenCompass大模型評測平臺構建了包含學科、語言、知識、理解、推理五大維度的評測體系,支持超過50個評測數據集和30萬道評測題目,支持零樣本、小樣本及思維鏈評測,是目前最全面的開源評測平臺。

自7月發布以來,受到學術界和產業界廣泛關注,目前已為阿里巴巴、騰訊、清華大學等數十所企業及科研機構廣泛應用于大模型研發。

應用-Lagent輕量靈活的智能體框架

書生·浦語團隊同時開源了智能體框架,支持用戶快速將一個大語言模型轉變為多種類型的智能體,并提供典型工具為大語言模型賦能。

Lagent集合了ReAct、AutoGPT 及ReWoo等多種類型的智能體能力,支持智能體調用大語言模型進行規劃推理和工具調用,并可在執行中及時進行反思和自我修正。


基于書生·浦語大模型,目前已經發展出更豐富的下游應用,將于近期陸續向學術及產業界分享。

面向大模型掀起的新一輪創新浪潮,商湯科技堅持原創技術研究,通過前瞻性打造新型人工智能基礎設施,建立大模型及研發體系,持續推動AI創新和落地,引領人工智能進入工業化發展階段,同時賦能整個AI社區生態的繁榮發展。全鏈條工具體系開源鏈接

“書生·萬卷”預訓練語料

https://github.com/opendatalab/WanJuan1.0

InternLM預訓練框架

https://github.com/InternLM/InternLM

XTuner微調工具箱

https://github.com/InternLM/xtuner

LMDeploy推理工具鏈

https://github.com/InternLM/lmdeploy

OpenCompas大模型評測平臺

https://github.com/open-compass/opencompass

Lagent智能體框架

https://github.com/InternLM/lagent

171a704e-5791-11ee-939d-92fbcf53809c.gif

相關閱讀,戳這里

《AI考生今日抵達,商湯與上海AI實驗室等發布“書生·浦語”大型》

《大語言模型“書生·浦語”多項專業評測拔頭籌》

172516d4-5791-11ee-939d-92fbcf53809c.jpg


原文標題:性能超越開源模型標桿Llama2-70B,書生·浦語大模型InternLM-20B開源發布

文章出處:【微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 商湯科技
    +關注

    關注

    8

    文章

    557

    瀏覽量

    36713

原文標題:性能超越開源模型標桿Llama2-70B,書生·浦語大模型InternLM-20B開源發布

文章出處:【微信號:SenseTime2017,微信公眾號:商湯科技SenseTime】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    使用 NPU 插件對量化的 Llama 3.1 8b 模型進行推理時出現“從 __Int64 轉換為無符號 int 的錯誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發表于 06-25 07:20

    摩爾線程支持阿里云通義千問QwQ-32B開源模型

    近日,阿里云團隊正式開源全新推理模型——通義千問QwQ-32B。摩爾線程在該模型發布2小時內,
    的頭像 發表于 03-07 17:48 ?656次閱讀
    摩爾線程支持阿里云通義千問QwQ-32<b class='flag-5'>B</b><b class='flag-5'>開源</b><b class='flag-5'>模型</b>

    在算力魔方上本地部署Phi-4模型

    ?作者:算力魔方創始人/英特爾邊緣計算創新大使 劉力 前面我們分享了《Meta重磅發布Llama 3.3 70B開源AI模型的新里程碑》,
    的頭像 發表于 01-15 11:05 ?477次閱讀
    在算力魔方上本地部署Phi-4<b class='flag-5'>模型</b>

    阿里云發布開源多模態推理模型QVQ-72B-Preview

    近日,阿里云宣布了一項重大技術突破,正式發布了業界首個開源多模態推理模型——QVQ-72B-Preview。這一模型的問世,標志著阿里云在A
    的頭像 發表于 12-27 10:28 ?571次閱讀

    Meta重磅發布Llama 3.3 70B開源AI模型的新里程碑

    ?在人工智能領域,Meta的最新動作再次引起了全球的關注。今天,我們見證了Meta發布Llama 3.3 70B 模型,這是一個開源的人
    的頭像 發表于 12-18 16:46 ?557次閱讀
    Meta重磅<b class='flag-5'>發布</b><b class='flag-5'>Llama</b> 3.3 <b class='flag-5'>70B</b>:<b class='flag-5'>開源</b>AI<b class='flag-5'>模型</b>的新里程碑

    Meta推出Llama 3.3 70B,AI大模型競爭白熱化

    Llama 3.3 70B模型性能上表現出色,與同行業的其他大模型相比毫不遜色。更重要的是,其在成本上展現出了更強的競爭力,使得更多的企
    的頭像 發表于 12-09 14:50 ?788次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個開源的大語言模型服務工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》
    的頭像 發表于 11-23 17:22 ?3656次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> 3.2 Vision<b class='flag-5'>模型</b>本地部署

    阿里通義千問代碼模型全系列開源

    近日,阿里云通義大模型團隊宣布了一項重大決策:將通義千問代碼模型全系列正式開源。此次開源模型系列共包含6款Qwen2.5-Coder
    的頭像 發表于 11-14 15:26 ?917次閱讀

    Meta發布Llama 3.2量化版模型

    近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領域帶來了新進展。10月24日,Meta正式推出了這兩個
    的頭像 發表于 10-29 11:05 ?813次閱讀

    Llama 3 與開源AI模型的關系

    在人工智能(AI)的快速發展中,開源AI模型扮演著越來越重要的角色。它們不僅推動了技術的創新,還促進了全球開發者社區的合作。Llama 3,作為一個新興的AI項目,與開源AI
    的頭像 發表于 10-27 14:42 ?738次閱讀

    PerfXCloud重磅升級 阿里開源最強視覺語言模型Qwen2-VL-7B強勢上線!

    「重磅通知」 :PerfXCloud 再度華麗升級,現已全面支持迄今為止 最為卓越的開源視覺模型 Qwen2-VL-7B 。這一重大突破將為用戶帶來更加震撼的視覺體驗,進一步拓展創意的邊界,快來
    的頭像 發表于 10-23 11:07 ?712次閱讀
    PerfXCloud重磅升級  阿里<b class='flag-5'>開源</b>最強視覺語言<b class='flag-5'>模型</b>Qwen<b class='flag-5'>2-VL-7B</b>強勢上線!

    英偉達發布AI模型 Llama-3.1-Nemotron-51B AI模型

    英偉達公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,這個AI大模型是源自 Meta 公司的 Llama-3.1-70B?大
    的頭像 發表于 09-26 17:30 ?875次閱讀

    源2.0-M32大模型發布量化版 運行顯存僅需23GB 性能可媲美LLaMA3

    北京2024年8月23日?/美通社/ -- 近日,浪潮信息發布源2.0-M32大模型4bit和8bit量化版,性能比肩700億參數的LLaMA3開源
    的頭像 發表于 08-25 22:06 ?627次閱讀
    源2.0-M32大<b class='flag-5'>模型</b><b class='flag-5'>發布</b>量化版 運行顯存僅需23GB <b class='flag-5'>性能</b>可媲美<b class='flag-5'>LLaMA</b>3

    Meta發布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標志著Meta在AI領域的又一重大突破。Meta創始人馬克·扎克伯格親自站臺,盛贊
    的頭像 發表于 07-24 18:25 ?1758次閱讀

    Meta即將發布超強開源AI模型Llama 3-405B

    在人工智能領域的激烈競爭中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發布其最新力作——Llama 3-405B,一個擁有驚人4050億參數的開源
    的頭像 發表于 07-18 09:58 ?1302次閱讀
    主站蜘蛛池模板: 你懂在线| 久精品视频村上里沙 | 国产人成精品免费视频 | 网站黄色在线观看 | 岬奈奈美在线 国产一区 | 欧美系列在线 | 国产毛片精品 | 美女和帅哥在床上玩的不可描述 | 一级毛片日韩a欧美 | 香蕉视频在线观看国产 | 综合网在线 | 四虎海外在线永久免费看 | 欧美性天天影视 | 在线中文字幕一区 | va在线观看| 性欧美bbbbbb动漫 | 亚洲一本视频 | 午夜三级理论在线观看视频 | 久久啊 | 一级毛片一级毛片 | 人人爱爱 | 国产成人精品日本亚洲语言 | 狠狠色婷婷七月色综合 | 亚洲综合欧美日本另类激情 | 男人天堂久久 | 美女艹逼视频 | 国模一区二区三区私啪啪 | 日本高清视频成人网www | 天天综合网久久 | 青草午夜精品视频在线观看 | 久久久久大香线焦 | 熊出没之环球大冒险旧版免费观看 | 国产福利影视 | 菲菲国产在线观看 | 在线 色| www.九色.com | 国产一区二区三区乱码 | 人人玩人人添天天爽 | 网友偷自拍原创区 | 很黄很污小说 | 作爱在线观看 |