核心算力规格
NVIDIA GPU 与 华为昇腾 NPU 技术参数详解
Rubin R1002026
NVIDIA下一代Rubin架构,首发HBM4显存,带宽高达22TB/s,专为万亿参数模型训练设计。
显存288GB HBM4
带宽22 TB/s
算力(FP16/8)5000 TFLOPS (FP4)
TDP1200W
B2002024
Blackwell架构旗舰,采用双芯片设计,FP8算力是H100的2.5倍,适合超大规模模型训练。
显存192GB HBM3e
带宽8 TB/s
算力(FP16/8)4500 TFLOPS (FP8)
TDP1000W
H200 SXM2024
H100的显存升级版,HBM3e带来更高带宽,推理性能显著提升。
显存141GB HBM3e
带宽4.8 TB/s
算力(FP16/8)1979 TFLOPS (FP8)
TDP1000W
H100 SXM2022
Hopper架构,引入Transformer引擎,当前AI训练的主流选择。
显存80GB HBM3
带宽3.35 TB/s
算力(FP16/8)1979 TFLOPS (FP8)
TDP700W
A100 SXM2020
Ampere架构经典款,性价比高,适合中等规模训练和推理。
显存80GB HBM2e
带宽1.9 TB/s
算力(FP16/8)312 TFLOPS
TDP400W
详细规格对比表
| 型号 | 显存规格 | 显存带宽 | 算力指标 | TDP功耗 |
|---|---|---|---|---|
| Rubin R100 | 288GB HBM4 | 22 TB/s | 5000 TFLOPS (FP4) | 1200W |
| B200 | 192GB HBM3e | 8 TB/s | 4500 TFLOPS (FP8) | 1000W |
| H200 SXM | 141GB HBM3e | 4.8 TB/s | 1979 TFLOPS (FP8) | 1000W |
| H100 SXM | 80GB HBM3 | 3.35 TB/s | 1979 TFLOPS (FP8) | 700W |
| A100 SXM | 80GB HBM2e | 1.9 TB/s | 312 TFLOPS | 400W |