智算中心 AIDC 指南

北电数智设计规划在线查询系统

核心算力规格

NVIDIA GPU 与 华为昇腾 NPU 技术参数详解

Rubin R1002026
NVIDIA下一代Rubin架构,首发HBM4显存,带宽高达22TB/s,专为万亿参数模型训练设计。
显存288GB HBM4
带宽22 TB/s
算力(FP16/8)5000 TFLOPS (FP4)
TDP1200W
B2002024
Blackwell架构旗舰,采用双芯片设计,FP8算力是H100的2.5倍,适合超大规模模型训练。
显存192GB HBM3e
带宽8 TB/s
算力(FP16/8)4500 TFLOPS (FP8)
TDP1000W
H200 SXM2024
H100的显存升级版,HBM3e带来更高带宽,推理性能显著提升。
显存141GB HBM3e
带宽4.8 TB/s
算力(FP16/8)1979 TFLOPS (FP8)
TDP1000W
H100 SXM2022
Hopper架构,引入Transformer引擎,当前AI训练的主流选择。
显存80GB HBM3
带宽3.35 TB/s
算力(FP16/8)1979 TFLOPS (FP8)
TDP700W
A100 SXM2020
Ampere架构经典款,性价比高,适合中等规模训练和推理。
显存80GB HBM2e
带宽1.9 TB/s
算力(FP16/8)312 TFLOPS
TDP400W
详细规格对比表
型号显存规格显存带宽算力指标TDP功耗
Rubin R100288GB HBM422 TB/s5000 TFLOPS (FP4)1200W
B200192GB HBM3e8 TB/s4500 TFLOPS (FP8)1000W
H200 SXM141GB HBM3e4.8 TB/s1979 TFLOPS (FP8)1000W
H100 SXM80GB HBM33.35 TB/s1979 TFLOPS (FP8)700W
A100 SXM80GB HBM2e1.9 TB/s312 TFLOPS400W