ホーム GPU比較 AMD Instinct MI300A vs NVIDIA H100 SXM5 80 GB

AMD Instinct MI300A vs NVIDIA H100 SXM5 80 GB

AI GPU 私たちはプロフェッショナル市場向けの128GBのメモリを搭載した AMD Instinct MI300A と 向けの80GBのメモリを搭載した H100 SXM5 80 GB を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。

主要な違い

AMD Instinct MI300A の利点
リリースが9ヶ月遅れました
最大ブーストクロックは 6% 向上しました (2100MHz と 1980MHz)
より大きな VRAM (128GB vs 80GB)
より大きなメモリ帯域幅 (5300GB/s vs 1681GB/s)
NVIDIA H100 SXM5 80 GB の利点
追加されたレンダリングコア数は 2304個です
より低いTDP電力 (700W と 760W)

スコア

ベンチマーク

FP32 (浮動小数点)
AMD Instinct MI300A +83%
122.6 TFLOPS
H100 SXM5 80 GB
66.91 TFLOPS
VS

グラフィックスカード

2023年12月
リリース日
2023年3月
Instinct
世代
Tesla Hopper
プロフェッショナル
タイプ
AI GPU
PCIe 5.0 x16
バスインターフェース
PCIe 5.0 x16

クロック速度

1000 MHz
ベースクロック
1590 MHz
2100 MHz
ブーストクロック
1980 MHz
5200 MHz
メモリクロック
1313 MHz

メモリ

128GB
メモリサイズ
80GB
HBM3
メモリタイプ
HBM3
8192bit
メモリバス
5120bit
5300GB/s
帯域幅
1681GB/s

レンダリング設定

-
SM数
132
228
計算ユニット
-
14592
シェーディングユニット
16896
880
TMU
528
0
ROP
24
-
テンソルコア
528
-
RTコア
-
16 KB (per CU)
L1キャッシュ
256 KB (per SM)
16 MB
L2キャッシュ
50 MB

理論的な性能

0 MPixel/s
ピクセルレート
47.52 GPixel/s
1496 GTexel/s
テクスチャレート
1045 GTexel/s
980.6 TFLOPS
FP16 (半精度)
267.6 TFLOPS
122.6 TFLOPS
FP32 (単精度)
66.91 TFLOPS
61.3 TFLOPS
FP64 (倍精度)
33.45 TFLOPS

グラフィックスプロセッサ

MI300
GPU名
GH100
-
GPUバリアント
-
CDNA 3.0
アーキテクチャ
Hopper
TSMC
ファウンドリ
TSMC
5 nm
プロセスサイズ
4 nm
1460 億
トランジスタ
800 億
1017 mm²
ダイサイズ
814 mm²

ボード設計

760W
TDP
700W
1000 W
推奨PSU
1100 W
No outputs
出力
No outputs
None
電源コネクタ
8-pin EPS

グラフィックス機能

N/A
DirectX
N/A
N/A
OpenGL
N/A
3.0
OpenCL
3.0
N/A
Vulkan
N/A
-
CUDA
9.0
N/A
シェーダモデル
N/A

関連GPU比較

© 2024 - TopCPU.net   お問い合わせ プライバシーポリシー