在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Cerebras推出WSE-3 AI芯片,比NVIDIA H100大56倍

SDNLAB ? 來源:SDNLAB ? 2024-03-14 17:11 ? 次閱讀

Cerebras 是一家位于美國加利福尼亞州的初創公司,2019 年進入硬件市場,其首款超大人工智能芯片名為 Wafer Scale Engine (WSE) ,尺寸為 8 英寸 x 8 英寸,比最大的 GPU 大 56 倍,擁有 1.2 萬億個晶體管和 40 萬個計算核心,是當時最快、最大的 AI 芯片。隨后在 2021 年,Cerebras 推出了 WSE-2,這是一款 7 納米芯片,其性能是原來的兩倍,擁有 2.6 萬億個晶體管和 85 萬個核心。

近日,Cerebras 宣布推出了第三代WSE-3,性能再次提高了近一倍。

8cb56d78-e1e2-11ee-a297-92fbcf53809c.png

01

Cerebras 推出 WSE-3 AI 芯片,比 NVIDIA H100 大 56 倍 WSE-3采用臺積電5nm工藝,擁有超過4萬億個晶體管和90 萬個核心,可提供 125 petaflops 的性能。這款芯片是臺積電可以制造的最大的方形芯片。WSE-3擁有44GB 片上 SRAM,而不是片外 HBM3E 或 DDR5。內存與核心一起分布,目的是使數據和計算盡可能接近。

自推出以來,Cerebras 就將自己定位為英偉達GPU 驅動的人工智能系統的替代品。這家初創公司的宣傳是:他們可以使用更少的芯片在 Cerebras 硬件上進行 AI訓練,而不是使用數千個 GPU。據稱,一臺Cerebras服務器可以完成與 10 個 GPU 機架相同的工作。

下圖是Cerebras WSE-3和英偉達 H100的對比。

8cd2762a-e1e2-11ee-a297-92fbcf53809c.png

Cerebras 的獨特優勢是將整個硅片直接轉化為單一巨大的處理器,從而大幅提升計算性能和效率。英偉達、AMD、英特爾等公司往往會把一塊大晶圓切成多個小的部分來制造芯片,在充斥著 Infiniband、以太網、PCIe 和 NVLink 交換機的英偉達GPU 集群中,大量的功率和成本花費在重新鏈接芯片上,Cerebras的方法極大地減少了芯片之間的數據傳輸延遲,提高了能效比,并且在AI和ML任務中實現了前所未有的計算速度。

02

Cerebras CS-3 系統

Cerebras CS-3 是第三代 Wafer Scale 系統。其頂部具有 MTP/MPO 光纖連接,以及用于冷卻的電源、風扇和冗余泵。該系統及其新芯片在相同的功耗和價格下實現了大約 2 倍的性能飛躍。

8ce05114-e1e2-11ee-a297-92fbcf53809c.png

Cerebras WSE-3 的核心數量是英偉達的 H100 Tensor Core 的 52 倍。與 Nvidia DGX H100 系統相比,由 WSE-3 芯片驅動的 Cerebras CS-3 系統的訓練速度提高了 8 倍,內存增加了 1,900 倍,并且可以訓練多達 24 萬億個參數的 AI 模型,這是其 600 倍。Cerebras 高管表示,CS-3的能力比 DGX H100 的能力還要大。在 GPU 上訓練需要 30 天的 Llama 700 億參數模型,使用CS-3 集群進行訓練只需要一天。

8ceb5910-e1e2-11ee-a297-92fbcf53809c.png8cfd537c-e1e2-11ee-a297-92fbcf53809c.png

CS-3可以配置為多達2048個系統的集群,可實現高達 256 exaFLOPs 的 AI 計算,專為快速訓練 GPT-5 規模的模型而設計。

8d0abbca-e1e2-11ee-a297-92fbcf53809c.png

Cerebras CS-3 適用于 2048 節點 256EF 集群

8d1ef59a-e1e2-11ee-a297-92fbcf53809c.png

適用于 GPT 5 規模的 Cerebras CS-3 集群

03

Cerebras AI編程

Cerebras 聲稱其平臺比英偉達的平臺更易于使用,原因在于 Cerebras 存儲權重和激活的方式,Cerebras 不必擴展到系統中的多個 GPU,然后擴展到集群中的多個 GPU 服務器。

8d2fa638-e1e2-11ee-a297-92fbcf53809c.png ?

除了代碼更改很容易之外,Cerebras 表示它的訓練速度比 Meta GPU 集群更快。當然,這只是理論上數據,當前還沒有任何 2048 個 CS-3 集群已經投入運行,而 Meta 已經有了 AI GPU 集群。

8d384e50-e1e2-11ee-a297-92fbcf53809c.png

Llama 70B Meta VS Cerebras CS-3 集群

04

Cerebras 與高通合作開發人工智能推理

Cerebras 和高通建立了合作伙伴關系,目標是將推理成本降低 10 倍。Cerebras 表示,他們的解決方案將涉及應用神經網絡技術,例如權重數據壓縮等。該公司表示,經過 Cerebras 訓練的網絡將在高通公司的新型推理芯片AI 100 Ultra上高效運行。

這項工作使用了四種主要技術來定制 Cerebras 訓練的模型:

8d594312-e1e2-11ee-a297-92fbcf53809c.png

稀疏性是 Cerebras 的秘密武器之一,Cerebras 能夠在訓練過程中利用動態、非結構化的稀疏性。高通的 Cloud AI100 具有對非結構化稀疏性的硬件支持,這種稀疏協同可以使性能提高2.5倍。

推測解碼是一種前景廣闊但迄今為止難以有效實施的行業技術,也被用來加快速度。這種技術使用一個大型LLM和一個小型LLM的組合來完成一個大型LLM的工作。小模型不太精確,但效率較高。大模型用于檢查小模型的合理性。總體而言,組合效率更高,由于該技術總體上使用的計算量較少,因此速度可以提高 1.8 倍。

權重壓縮為 MxFP6,這是一種行業 6 位微指數格式,與 FP16 相比,可節省 39% 的 DRAM 空間。高通的編譯器將權重從 FP32 或 FP16 壓縮為 MxFP6,Cloud AI100 的矢量引擎在軟件中執行即時解壓縮到 FP16。該技術可以將推理速度提高 2.2 倍。

神經架構搜索(NAS)是一種推理優化技術。該技術在訓練期間考慮了目標硬件(Qualcomm Cloud AI 100)的優點和缺點,以支持在該硬件上高效運行的層類型、操作和激活函數。Cerebras 和 Qualcomm 在 NAS 方面的工作使推理速度提高了一倍。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5194

    瀏覽量

    105503
  • 晶體管
    +關注

    關注

    77

    文章

    9912

    瀏覽量

    140251
  • AI芯片
    +關注

    關注

    17

    文章

    1959

    瀏覽量

    35625
  • 人工智能芯片

    關注

    1

    文章

    121

    瀏覽量

    29425
  • DDR5
    +關注

    關注

    1

    文章

    438

    瀏覽量

    24633

原文標題:初創公司Cerebras 推出 WSE-3 AI 芯片,聲稱“吊打”英偉達 H100

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    GPU 維修干貨 | 英偉達 GPU H100 常見故障有哪些?

    上漲,英偉達H100GPU憑借其強大的算力,成為AI訓練、高性能計算領域的核心硬件。然而,隨著使用場景的復雜化,H100服務器故障率也逐漸攀升,輕則影響業務進度,重
    的頭像 發表于 05-05 09:03 ?36次閱讀
    GPU 維修干貨 | 英偉達 GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    英偉達A100H100比較

    英偉達A100H100都是針對高性能計算和人工智能任務設計的GPU,但在性能和特性上存在顯著差異。以下是對這兩款GPU的比較: 1. 架構與核心規格: A100: 架構: 基于Ampere架構
    的頭像 發表于 02-10 17:05 ?2949次閱讀
    英偉達A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    晶科鑫SJK晶振在不同領域的應用

    在科技時代,高性能芯片的需求日益增長。據《財富》雜志報道,Cerebras Systems推出WSE-3 AI
    的頭像 發表于 02-07 18:03 ?506次閱讀

    Supermicro推出直接液冷優化的NVIDIA Blackwell解決方案

    機架中的NVIDIA HGX B200 8-GPU系統數量,與Supermicro目前領先業界的搭載NVIDIA HGX H100H200的液冷型SuperCluster相比,GPU
    發表于 11-25 10:39 ?668次閱讀
    Supermicro<b class='flag-5'>推出</b>直接液冷優化的<b class='flag-5'>NVIDIA</b> Blackwell解決方案

    英偉達H100芯片市場降溫

    隨著英偉達新一代AI芯片GB200需求的不斷攀升,其上一代明星產品H100芯片卻遭遇了市場的冷落。據業內人士透露,搭載H100的服務器通常以
    的頭像 發表于 10-28 15:42 ?1352次閱讀

    創業公司轉向RTX 4090因NVIDIA中國特供芯片價格高昂

    8月14日最新消息指出,據多方媒體報道,NVIDIA的A100H100等高端芯片因受限已有一年半之久,盡管公司隨后推出了專為中國市場設計的
    的頭像 發表于 08-15 14:28 ?713次閱讀

    馬斯克自曝訓練Grok 3用了10萬塊NVIDIA H100

    在科技界的前沿陣地上,埃隆·馬斯克再次以其前瞻性的視野和大膽的嘗試引領著新的風潮。近日,馬斯克在社交媒體X上的一則回應,不經意間透露了其即將推出AI聊天機器人Grok 3背后的驚人秘密——這款被馬斯克譽為“非常特別”的
    的頭像 發表于 07-03 14:16 ?1150次閱讀

    只能跑Transformer的AI芯片,卻號稱全球最快?

    跑transformer架構的模型。 Sohu,H100快上20 之所以打算Sohu這一自研ASIC AI芯片,是因為Etched認為G
    的頭像 發表于 07-01 09:03 ?1801次閱讀

    AI初創公司Cerebras秘密申請IPO

    近日,全球科技圈再次掀起波瀾。據外媒最新報道,被譽為明星AI芯片獨角獸的Cerebras Systems,已經悄然向證券監管機構遞交了首次公開募股(IPO)的秘密申請。這一動作無疑為當前火爆的
    的頭像 發表于 06-27 17:44 ?921次閱讀

    哈佛輟學生發布大模型芯片英偉達H100快20

    行業芯事行業資訊
    電子發燒友網官方
    發布于 :2024年06月27日 11:15:48

    AI初出企業Cerebras已申請IPO!稱發布的AI芯片GPU更適合大模型訓練

    美國加州,專注于研發GPU更適用于訓練AI模型的晶圓級芯片,為復雜的AI應用構建計算機系統,并與阿布扎比科技集團G42等機構合作構建超級計算機。基于其最新旗艦
    的頭像 發表于 06-26 00:09 ?3211次閱讀
    <b class='flag-5'>AI</b>初出企業<b class='flag-5'>Cerebras</b>已申請IPO!稱發布的<b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>比</b>GPU更適合大模型訓練

    Supermicro推出適配NVIDIA Blackwell和NVIDIA HGX H100/H200的機柜級即插即用液冷AI SuperCluster

    制造商,推出可立即部署式液冷型AI數據中心。此數據中心專為云原生解決方案而設計,通過SuperCluster加速各界企業對生成式AI的運用,并針對NVIDIA
    發表于 06-07 15:12 ?468次閱讀
    Supermicro<b class='flag-5'>推出</b>適配<b class='flag-5'>NVIDIA</b> Blackwell和<b class='flag-5'>NVIDIA</b> HGX <b class='flag-5'>H100</b>/<b class='flag-5'>H</b>200的機柜級即插即用液冷<b class='flag-5'>AI</b> SuperCluster

    首批1024塊H100 GPU,正崴集團將建中國臺灣最大AI計算中心

    中國臺灣當地正崴集團5月27日宣布,將與日本公司Ubitus共同打造人工智能(AI)計算中心,其中第一期將導入128個機柜,共計1024張英偉達H100旗艦計算卡,旨在構建臺灣最大的AI計算中心。
    的頭像 發表于 05-29 10:05 ?1590次閱讀

    微軟將采用AMD AI芯片以替代英偉達,為云計算提供更優解決方案

    微軟將大規模采用AMD的旗艦產品MI300X,并通過Azure云計算平臺向用戶提供計算集群服務。鑒于NvidiaH100H200芯片供應緊張,微軟決定提供備選方案。
    的頭像 發表于 05-17 16:38 ?996次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    H100 Tensor Core GPU 快 6 。 采用液體冷卻的 GB200 計算托盤可實現高能效和高計算精密度 NVIDIA GB200 Grace Blackwell超級芯片
    發表于 05-13 17:16
    主站蜘蛛池模板: 欧美色影视 | 三级黄色片免费观看 | 国产拍拍视频 | 欧美一级黄色片在线观看 | 五月婷婷精品 | 男人j进人女人j 的视频 | 日韩 三级 | 中日韩在线视频 | 在线观看视频一区二区 | 我想看一级播放片一级的 | 国产成人在线播放视频 | 91大神在线看 | 一级片在线观看视频 | 4虎影视国产在线观看精品 4虎影院永久地址www | 一级毛片在线看在线播放 | 国产美女精品久久久久中文 | 岛国一级毛片 | 女人爽到喷水的视频大全在线观看 | 日日插天天操 | 国产精品免费看久久久香蕉 | 色噜噜狠狠大色综合 | 伊在线视频| 亚洲一区在线免费观看 | 小屁孩和大人啪啪 | 全部免费a级毛片 | 69日本人xxxx16-18 | 久久精品免费观看久久 | 午夜免费体验 | 黄色一级视频欧美 | 91久久澡人人爽人人添 | 日本黄色一级网站 | 下农村女人一级毛片 | 午夜小片 | 国产伦子一区二区三区四区 | 午夜小福利 | 国产小毛片 | 91大神精品| 看全色黄大色大片免费久久怂 | 久久国产精品自在自线 | 午夜在线一区 | 亚洲1卡二卡3卡四卡不卡 |