ホーム GPU比較 NVIDIA Tesla V100 SXM2 32 GB vs NVIDIA A100 SXM4 40 GB

NVIDIA Tesla V100 SXM2 32 GB vs NVIDIA A100 SXM4 40 GB

AI GPU 私たちはプロフェッショナル市場向けの32GBのメモリを搭載した Tesla V100 SXM2 32 GB と 向けの40GBのメモリを搭載した A100 SXM4 40 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA Tesla V100 SXM2 32 GB の利点
最大ブーストクロックは 9% 向上しました (1530MHz と 1410MHz)
より低いTDP電力 (250W と 400W)
NVIDIA A100 SXM4 40 GB の利点
リリースが2年 と 2 ヶ月 遅れました
より大きな VRAM (40GB vs 32GB)
より大きなメモリ帯域幅 (1555GB/s vs 897.0GB/s)
追加されたレンダリングコア数は 1792個です

スコア

ベンチマーク

FP32 (浮動小数点)
Tesla V100 SXM2 32 GB
15.67 TFLOPS
A100 SXM4 40 GB +24%
19.49 TFLOPS
Blender
Tesla V100 SXM2 32 GB
2122
A100 SXM4 40 GB +3%
2186
OctaneBench
Tesla V100 SXM2 32 GB
341
A100 SXM4 40 GB +48%
505
VS

グラフィックスカード

2018年3月
リリース日
2020年5月
Tesla
世代
Tesla Ampere
プロフェッショナル
タイプ
AI GPU
PCIe 3.0 x16
バスインターフェース
PCIe 4.0 x16

クロック速度

1290 MHz
ベースクロック
1095 MHz
1530 MHz
ブーストクロック
1410 MHz
876 MHz
メモリクロック
1215 MHz

メモリ

32GB
メモリサイズ
40GB
HBM2
メモリタイプ
HBM2e
4096bit
メモリバス
5120bit
897.0GB/s
帯域幅
1555GB/s

レンダリング設定

80
SM数
108
-
計算ユニット
-
5120
シェーディングユニット
6912
320
TMU
432
128
ROP
160
640
テンソルコア
432
-
RTコア
-
128 KB (per SM)
L1キャッシュ
192 KB (per SM)
6 MB
L2キャッシュ
40 MB

理論的な性能

195.8 GPixel/s
ピクセルレート
225.6 GPixel/s
489.6 GTexel/s
テクスチャレート
609.1 GTexel/s
31.33 TFLOPS
FP16 (半精度)
77.97 TFLOPS
15.67 TFLOPS
FP32 (単精度)
19.49 TFLOPS
7.834 TFLOPS
FP64 (倍精度)
9.746 TFLOPS

グラフィックスプロセッサ

GV100
GPU名
GA100
-
GPUバリアント
-
Volta
アーキテクチャ
Ampere
TSMC
ファウンドリ
TSMC
12 nm
プロセスサイズ
7 nm
211 億
トランジスタ
542 億
815 mm²
ダイサイズ
826 mm²

ボード設計

250W
TDP
400W
600 W
推奨PSU
800 W
No outputs
出力
No outputs
None
電源コネクタ
None

グラフィックス機能

12 (12_1)
DirectX
N/A
4.6
OpenGL
N/A
3.0
OpenCL
3.0
1.3
Vulkan
N/A
7.0
CUDA
8.0
6.6
シェーダモデル
N/A

関連GPU比較

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー