在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

不再焦慮GPU供應,8芯片挑戰5萬億參數大模型

E4Life ? 來源:電子發燒友網 ? 作者:周凱揚 ? 2023-09-27 09:10 ? 次閱讀

電子發燒友網報道(文/周凱揚)隨著LLM與生成式AI熱度不減,不少AI芯片初創公司都找到了新的發力點,紛紛調整設計思路,專為這一爆款應用開發出了新款芯片。且不說這些芯片的實際性能如何,但這無疑是當下推動這些公司獲得投資,并在行業下行期存活下去的救命稻草。今天我們就來聊聊剛發布新品SN40L的AI芯片初創公司SambaNova。

SN40L背后的SambaNova

SambaNova成立于2017年,截至目前已經歷了共計6輪融資,參與融資的公司包括谷歌、英特爾和軟銀等,融資總額高達11億美元。只不過最近的D輪融資,距今已經有兩年多的時間,也難怪SambaNova急于推出SN40L這一芯片,畢竟此類初創公司的開發從來都是燒錢的。

其實在SN40L推出以前,SambaNova也并非默默無聞,比如美國阿貢國家實驗室早在第一代產品SN10推出時就在使用和測試SambaNova的系統了,只不過屆時基于SN10的SambaNova Dataflow系統還只是用于消除數據噪聲而已。

如果我們現在看阿貢國家實驗室的ALCF AI測試平臺,我們可以看到5大系統,分別是Cerebras的CS2、SambaNova的Dataflow、Graphcore的Bow Pod64、Grop系統以及Habana的Gaudi。而目前用于ALCF AI測試平臺的SambaNova Dataflow就是基于SN40L的上一代產品SN30 RDU打造的,該芯片基于臺積電的7nm工藝打造。

目前SN30用在阿貢國家實驗室的這套系統主要用于一些科學研究領域的AI計算,比如中微子物理、癌癥預測、氣候建模以及下一代汽車引擎研發等。而我們真正關注的是剛發布的SN40L,以及它在LLM這一應用上能提供何種不同的優勢。

英偉達GPU的替代方案

目前LLM的主流方案,即英偉達的A100、H100 GPU,存在一個很大的問題,那就是缺貨。對于任何互聯網廠商來說,在市面上找到足夠多的GPU都是一件費錢費力的事。而對于云服務廠商來說也是如此,他們也要考慮出租這類服務器時,GPU的算力與容量分配問題。

wKgaomUTgVGAKNovADO8XqFE2PU092.png
SN40L芯片和CEO Rodrigo Liang / SambaNova


為了解決“數量”的問題,SambaNova推出了SN40L。相較上一代的SN30,該芯片基于臺積電5nm工藝打造,每個芯片集成了1020億個晶體管和1040個核,算力高達638TFlops。更夸張的是,SambaNova稱單個SN40L系統節點(8塊SN40L芯片)就能支持到最高5萬億參數的大模型。

與其他AI芯片初創公司不一樣的是,他們并沒有選擇直接將芯片賣給其他公司這條路線,而是選擇了售賣訪問其定制AI技術棧的訪問權,包括其自研硬件和運行超大模型的軟件等。這種商業模式或許能吸引一部分互聯網公司,但在云服務廠商眼中,他們應該不會覺得這是一套可盈利的方案。

此外,SambaNova與其他競爭對手一樣,在AI芯片上引入了64GB HBM用于解決內存墻的問題,這也是SN40L與上一代芯片的差異之一。只不過SambaNova并沒有透露SN40L用的是何種HBM,以及帶寬性能如何。

寫在最后

雖然SambaNova展示了提高LLM擴展性的另一條道路,但在沒有經過實際驗證之前,市場還是會對其持觀望態度。此前也有不少AI芯片公司發表過同樣大膽的聲明,但事實證明這類芯片只適合用于運行那些預訓練完成的模型,而訓練過程仍需要靠GPU來完成。所以哪怕SambaNova的CEO Rodrigo Liang強調SN40L的訓練性能足夠優秀,但是否能在這套商業模式下闖出一片天,就得交由市場去驗證了。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4903

    瀏覽量

    130569
  • SambaNova
    +關注

    關注

    0

    文章

    7

    瀏覽量

    264
  • SN40L
    +關注

    關注

    0

    文章

    2

    瀏覽量

    77
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    AI大模型不再依賴英偉達GPU?蘋果揭秘自研大模型

    ? 電子發燒友網報道(文/梁浩斌)過去幾年中爆發的AI算力需求,英偉達GPU成為了最大的贏家,無論是自動駕駛還是AI大模型,比如特斯拉、小鵬、OpenAI、字節跳動等廠商都在爭相搶購英偉達GPU產品
    的頭像 發表于 08-05 06:07 ?4377次閱讀
    AI大<b class='flag-5'>模型</b><b class='flag-5'>不再</b>依賴英偉達<b class='flag-5'>GPU</b>?蘋果揭秘自研大<b class='flag-5'>模型</b>

    無法在GPU上運行ONNX模型的Benchmark_app怎么解決?

    在 CPU 和 GPU 上運行OpenVINO? 2023.0 Benchmark_app推斷的 ONNX 模型。 在 CPU 上推理成功,但在 GPU 上失敗。
    發表于 03-06 08:02

    GPU是如何訓練AI大模型

    在AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發表于 12-19 17:54 ?588次閱讀

    PyTorch GPU 加速訓練模型方法

    在深度學習領域,GPU加速訓練模型已經成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和方法來利用GPU進行模型訓練。 1. 了解
    的頭像 發表于 11-05 17:43 ?1195次閱讀

    為什么ai模型訓練要用gpu

    GPU憑借其強大的并行處理能力和高效的內存系統,已成為AI模型訓練不可或缺的重要工具。
    的頭像 發表于 10-24 09:39 ?808次閱讀

    當前主流的大模型對于底層推理芯片提出了哪些挑戰

    隨著大模型時代的到來,AI算力逐漸變成重要的戰略資源,對現有AI芯片也提出了前所未有的挑戰:大算力的需求、高吞吐量與低延時、高效內存管理、能耗等等。
    的頭像 發表于 09-24 16:57 ?1022次閱讀

    英偉達Blackwell可支持10萬億參數模型AI訓練,實時大語言模型推理

    、NVLink交換機、Spectrum以太網交換機和Quantum InfiniBand交換機。 ? 英偉達稱,Blackwell擁有6項革命性技術,可支持多達10萬億參數模型進行AI訓練
    的頭像 發表于 09-04 09:10 ?3528次閱讀

    英偉達震撼發布:全新AI模型參數規模躍升至80億量級

    8月23日,英偉達宣布,其全新AI模型面世,該模型參數規模高達80億,具有精度高、計算效益大等優勢,適用于GPU加速的數據中心、云及工作站環
    的頭像 發表于 08-23 16:08 ?1014次閱讀

    暴漲預警!NVIDIA GPU供應大跳水

    gpu
    jf_02331860
    發布于 :2024年07月26日 09:41:42

    模型發展下,國產GPU的機會和挑戰

    電子發燒友網站提供《大模型發展下,國產GPU的機會和挑戰.pdf》資料免費下載
    發表于 07-18 15:44 ?13次下載
    大<b class='flag-5'>模型</b>發展下,國產<b class='flag-5'>GPU</b>的機會和<b class='flag-5'>挑戰</b>

    AI初出企業Cerebras已申請IPO!稱發布的AI芯片GPU更適合大模型訓練

    美國加州,專注于研發比GPU更適用于訓練AI模型的晶圓級芯片,為復雜的AI應用構建計算機系統,并與阿布扎比科技集團G42等機構合作構建超級計算機?;谄渥钚缕炫?b class='flag-5'>芯片構建的服務器可輕松高
    的頭像 發表于 06-26 00:09 ?3267次閱讀
    AI初出企業Cerebras已申請IPO!稱發布的AI<b class='flag-5'>芯片</b>比<b class='flag-5'>GPU</b>更適合大<b class='flag-5'>模型</b>訓練

    中國電信發布全球首個單體稠密萬億參數語義模型

    近日,中國電信人工智能研究院(TeleAI)攜手北京智源人工智能研究院,共同推出了全球首個單體稠密萬億參數語義模型——Tele-FLM-1T,這一里程碑式的成就標志著中國電信在人工智能領域取得了重大突破,并成為了國內首批發布稠密
    的頭像 發表于 06-20 10:50 ?869次閱讀

    模型發展下,國產GPU的機會和挑戰(下)

    洞見分析經驗分享模型
    電子發燒友網官方
    發布于 :2024年06月11日 17:15:23

    模型發展下,國產GPU的機會和挑戰(上)

    洞見分析經驗分享模型
    電子發燒友網官方
    發布于 :2024年06月11日 16:51:11

    萬卡集群解決大模型訓算力需求,建設面臨哪些挑戰

    ? 電子發燒友網報道(文/李彎彎)萬卡集群是指由一萬張及以上的加速卡(包括GPU、TPU及其他專用AI加速芯片)組成的高性能計算系統,主要用于加速人工智能模型的訓練和推理過程。這種集群的構建旨在
    的頭像 發表于 06-02 06:18 ?5404次閱讀
    萬卡集群解決大<b class='flag-5'>模型</b>訓算力需求,建設面臨哪些<b class='flag-5'>挑戰</b>
    主站蜘蛛池模板: 毛片在线看免费版 | 四虎a级欧美在线观看 | 国产精品久久久久久久久 | 91欧美精品激情在线观看 | 上一篇26p国模 | 黄.www | 欧美军同video69视频 | 亚洲福利一区 | 国产papa | 男人天堂黄色 | 午夜婷婷网 | 最好看免费中文字幕2018视频 | 中文字幕卡二和卡三的视频 | 宅男69免费永久网站 | 一级不卡毛片 | 午夜嘿咻| 亚洲免费色图 | 在线资源站 | 日本黄页网站在线观看 | 五月婷婷俺也去开心 | 午夜影院免费观看 | 三级在线观看视频 | 久久天天操 | 怡红院色视频在线 | 色妇网 | 中文字幕在线观看一区 | 濑亚美莉iptd619在线观看 | a级黄视频 | 在线观看一二三区 | 国产农村妇女毛片精品久久 | 偷偷要色偷偷 | 免看一级a一片成人123 | 五月天婷婷在线观看 | 色综合亚洲天天综合网站 | 欧美高清xx | 一级片免费在线观看视频 | 免费二级c片观看 | 手机看片1024国产基地 | 日本视频一区在线观看免费 | 国产综合久久久久影院 | 天天综合射 |