ホーム GPU比較 NVIDIA A100 SXM4 40 GB vs NVIDIA Tesla V100 SXM3 32 GB

NVIDIA A100 SXM4 40 GB vs NVIDIA Tesla V100 SXM3 32 GB

AI GPU 私たちは向けの40GBのメモリを搭載した A100 SXM4 40 GB と プロフェッショナル市場向けの32GBのメモリを搭載した Tesla V100 SXM3 32 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA A100 SXM4 40 GB の利点
リリースが2年 と 2 ヶ月 遅れました
より大きな VRAM (40GB vs 32GB)
より大きなメモリ帯域幅 (1555GB/s vs 897.0GB/s)
追加されたレンダリングコア数は 1792個です
NVIDIA Tesla V100 SXM3 32 GB の利点
最大ブーストクロックは 9% 向上しました (1530MHz と 1410MHz)
より低いTDP電力 (250W と 400W)

スコア

ベンチマーク

FP32 (浮動小数点)
A100 SXM4 40 GB +24%
19.49 TFLOPS
Tesla V100 SXM3 32 GB
15.67 TFLOPS
VS

グラフィックスカード

2020年5月
リリース日
2018年3月
Tesla Ampere
世代
Tesla
AI GPU
タイプ
プロフェッショナル
PCIe 4.0 x16
バスインターフェース
PCIe 3.0 x16

クロック速度

1095 MHz
ベースクロック
1290 MHz
1410 MHz
ブーストクロック
1530 MHz
1215 MHz
メモリクロック
876 MHz

メモリ

40GB
メモリサイズ
32GB
HBM2e
メモリタイプ
HBM2
5120bit
メモリバス
4096bit
1555GB/s
帯域幅
897.0GB/s

レンダリング設定

108
SM数
80
-
計算ユニット
-
6912
シェーディングユニット
5120
432
TMU
320
160
ROP
128
432
テンソルコア
640
-
RTコア
-
192 KB (per SM)
L1キャッシュ
128 KB (per SM)
40 MB
L2キャッシュ
6 MB

理論的な性能

225.6 GPixel/s
ピクセルレート
195.8 GPixel/s
609.1 GTexel/s
テクスチャレート
489.6 GTexel/s
77.97 TFLOPS
FP16 (半精度)
31.33 TFLOPS
19.49 TFLOPS
FP32 (単精度)
15.67 TFLOPS
9.746 TFLOPS
FP64 (倍精度)
7.834 TFLOPS

グラフィックスプロセッサ

GA100
GPU名
GV100
-
GPUバリアント
-
Ampere
アーキテクチャ
Volta
TSMC
ファウンドリ
TSMC
7 nm
プロセスサイズ
12 nm
542 億
トランジスタ
211 億
826 mm²
ダイサイズ
815 mm²

ボード設計

400W
TDP
250W
800 W
推奨PSU
600 W
No outputs
出力
No outputs
None
電源コネクタ
None

グラフィックス機能

N/A
DirectX
12 (12_1)
N/A
OpenGL
4.6
3.0
OpenCL
3.0
N/A
Vulkan
1.3
8.0
CUDA
7.0
N/A
シェーダモデル
6.6

関連GPU比較

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー