ホーム GPU比較 NVIDIA H100 PCIe vs NVIDIA L4

NVIDIA H100 PCIe vs NVIDIA L4

AI GPU 私たちは向けの80GBのメモリを搭載した H100 PCIe と プロフェッショナル市場向けの24GBのメモリを搭載した L4 を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

NVIDIA H100 PCIe の利点
より大きな VRAM (80GB vs 24GB)
より大きなメモリ帯域幅 (2039GB/s vs 300.1GB/s)
追加されたレンダリングコア数は 7168個です
NVIDIA L4 の利点
リリースが1年遅れました
最大ブーストクロックは 16% 向上しました (2040MHz と 1755MHz)
より低いTDP電力 (72W と 350W)

スコア

ベンチマーク

FP32 (浮動小数点)
H100 PCIe +69%
51.22 TFLOPS
L4
30.29 TFLOPS
VS
L4

グラフィックスカード

2022年3月
リリース日
2023年3月
Tesla Hopper
世代
Tesla Ada
AI GPU
タイプ
プロフェッショナル
PCIe 5.0 x16
バスインターフェース
PCIe 4.0 x16

クロック速度

1095 MHz
ベースクロック
795 MHz
1755 MHz
ブーストクロック
2040 MHz
1593 MHz
メモリクロック
1563 MHz

メモリ

80GB
メモリサイズ
24GB
HBM2e
メモリタイプ
GDDR6
5120bit
メモリバス
192bit
2039GB/s
帯域幅
300.1GB/s

レンダリング設定

114
SM数
60
-
計算ユニット
-
14592
シェーディングユニット
7424
456
TMU
240
24
ROP
80
456
テンソルコア
240
-
RTコア
60
256 KB (per SM)
L1キャッシュ
128 KB (per SM)
50 MB
L2キャッシュ
48 MB

理論的な性能

42.12 GPixel/s
ピクセルレート
163.2 GPixel/s
800.3 GTexel/s
テクスチャレート
489.6 GTexel/s
204.9 TFLOPS
FP16 (半精度)
30.29 TFLOPS
51.22 TFLOPS
FP32 (単精度)
30.29 TFLOPS
25.61 TFLOPS
FP64 (倍精度)
473.3 GFLOPS

グラフィックスプロセッサ

GH100
GPU名
AD104
-
GPUバリアント
AD104-???-A1
Hopper
アーキテクチャ
Ada Lovelace
TSMC
ファウンドリ
TSMC
4 nm
プロセスサイズ
5 nm
800 億
トランジスタ
358 億
814 mm²
ダイサイズ
294 mm²

ボード設計

350W
TDP
72W
750 W
推奨PSU
250 W
No outputs
出力
No outputs
1x 16-pin
電源コネクタ
1x 16-pin

グラフィックス機能

N/A
DirectX
12 Ultimate (12_2)
N/A
OpenGL
4.6
3.0
OpenCL
3.0
N/A
Vulkan
1.3
9.0
CUDA
8.9
N/A
シェーダモデル
6.7

関連GPU比較

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー