昨晚AMD剛剛發布了7nm CDNA架構的MI100加速卡,NVIDIA這邊就推出了A100 80GB加速卡。雖然AMD把性能奪回去了,但是A100 80GB的HBM2e顯存也是史無前例了。
NVIDIA今年3月份發布了安培架構的A100加速卡(名字中沒有Tesla了),升級了7nm工藝和Ampere安培架構,集成542億晶體管,826mm2核心面積,使用了40GB HBM2顯存,帶寬1.6TB/s。
圖片來自Anandtech網站
現在的A100 80GB加速卡在GPU芯片上沒變化,依然是A100核心,6912個CUDA核心,加速頻率1.41GHz,FP32性能19.5TFLOPS,FP64性能9.7TFLOPS,INT8性能624TOPS,TDP 400W。
變化的主要是顯存,之前是40GB,HBM2規格的,帶寬1.6TB/s,現在升級到了80GB,顯存類型也變成了更先進的HBM2e,頻率從2.4Gbps提升到3.2Gbps,使得帶寬從1.6TB/s提升到2TB/s。
對游戲卡來說,這樣的顯存容量肯定是浪費了,但是在高性能計算、AI等領域,顯存很容易成為瓶頸,所以翻倍到80GB之后,A100 80GB顯卡可以提供更高的性能,NVIDIA官方信息稱它的性能少則提升25%,多則提升200%,特別是在AI訓練中,同時能效也提升了25%。
在A100 80GB加速卡發布之后,現在的A100 40GB版依然會繼續銷售。
責任編輯:PSY
-
amd
+關注
關注
25文章
5503瀏覽量
134697 -
NVIDIA
+關注
關注
14文章
5080瀏覽量
103826 -
顯存
+關注
關注
0文章
110瀏覽量
13698 -
加速卡
+關注
關注
1文章
61瀏覽量
11000
發布評論請先 登錄
相關推薦
美光發布HBM4與HBM4E項目新進展
貿澤開售適用于高性能計算應用的AMD Alveo V80加速器卡
HBM上車?HBM2E被用于自動駕駛汽車
SK海力士攜手Waymo提供第三代高帶寬存儲器(HBM2E)技術
英偉達2025年計劃發布Blackwell Ultra與B200A,或大幅提升HBM消耗量
集成32GB HBM2e內存,AMD Alveo V80加速卡助力傳感器處理、存儲壓縮等
![集成32<b class='flag-5'>GB</b> <b class='flag-5'>HBM2e</b>內存,AMD Alveo V<b class='flag-5'>80</b>加速<b class='flag-5'>卡</b>助力傳感器處理、存儲壓縮等](https://file1.elecfans.com/web2/M00/E6/DA/wKgaomZFo1aAbF-gAAV64asQSn0097.png)
SK海力士:HBM3E量產時間縮短50%,達到大約80%范圍的目標良率
進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片
三星重磅發布全新12層36GB HBM3e DRAM
![三星重磅<b class='flag-5'>發布</b>全新12層36<b class='flag-5'>GB</b> <b class='flag-5'>HBM3e</b> DRAM](https://file1.elecfans.com/web2/M00/C7/15/wKgaomYGLAOAReZCAAAwN0ytXpo089.png)
評論