CPU
GPU
SoC
カテゴリー
ランキング
CPU-ランキング
GPU-ランキング
SoCランキング
日本語
日本語
Close menu
ホーム
CPU
GPU
SoC
カテゴリー
CPU-ランキング
GPU-ランキング
SoCランキング
中文
English
Español
Deutsch
Français
Italiano
Português
日本語
한국어
العربية
ภาษาไทย
繁體中文
Tiếng Việt
Bahasa Melayu
中文
English
Español
Deutsch
Français
Italiano
Português
日本語
한국어
العربية
ภาษาไทย
繁體中文
Tiếng Việt
Bahasa Melayu
ホーム
GPU比較
NVIDIA H100 CNX vs AMD Radeon Instinct MI250
NVIDIA H100 CNX vs AMD Radeon Instinct MI250
VS
NVIDIA H100 CNX
AMD Radeon Instinct MI250
AI GPU 私たちは向けの80GBのメモリを搭載した H100 CNX と プロフェッショナル市場向けの128GBのメモリを搭載した Radeon Instinct MI250 を比較しました。両方のグラフィックスカードの主な仕様、ベンチマークテスト、消費電力などの情報を確認できます。
主要な違い
NVIDIA H100 CNX の利点
リリースが1年 と 4 ヶ月 遅れました
最大ブーストクロックは 9% 向上しました (1845MHz と 1700MHz)
追加されたレンダリングコア数は 1280個です
より低いTDP電力 (350W と 500W)
AMD Radeon Instinct MI250 の利点
より大きな VRAM (128GB vs 80GB)
より大きなメモリ帯域幅 (3277GB/s vs 2039GB/s)
スコア
ベンチマーク
FP32 (浮動小数点)
H100 CNX
+18%
53.84 TFLOPS
Radeon Instinct MI250
45.26 TFLOPS
H100 CNX
VS
Radeon Instinct MI250
グラフィックスカード
2023年3月
リリース日
2021年11月
Tesla Hopper
世代
Radeon Instinct
AI GPU
タイプ
プロフェッショナル
PCIe 5.0 x16
バスインターフェース
PCIe 4.0 x16
クロック速度
690 MHz
ベースクロック
1000 MHz
1845 MHz
ブーストクロック
1700 MHz
1593 MHz
メモリクロック
1600 MHz
メモリ
80GB
メモリサイズ
128GB
HBM2e
メモリタイプ
HBM2e
5120bit
メモリバス
8192bit
2039GB/s
帯域幅
3277GB/s
レンダリング設定
114
SM数
-
-
計算ユニット
208
14592
シェーディングユニット
13312
456
TMU
832
24
ROP
0
456
テンソルコア
-
-
RTコア
-
256 KB (per SM)
L1キャッシュ
16 KB (per CU)
50 MB
L2キャッシュ
16 MB
理論的な性能
44.28 GPixel/s
ピクセルレート
0 MPixel/s
841.3 GTexel/s
テクスチャレート
1414 GTexel/s
215.4 TFLOPS
FP16 (半精度)
362.1 TFLOPS
53.84 TFLOPS
FP32 (単精度)
45.26 TFLOPS
26.92 TFLOPS
FP64 (倍精度)
45.26 TFLOPS
グラフィックスプロセッサ
GH100
GPU名
Aldebaran
-
GPUバリアント
Aldebaran
Hopper
アーキテクチャ
CDNA 2.0
TSMC
ファウンドリ
TSMC
4 nm
プロセスサイズ
6 nm
800 億
トランジスタ
582 億
814 mm²
ダイサイズ
不明
ボード設計
350W
TDP
500W
750 W
推奨PSU
900 W
No outputs
出力
No outputs
8-pin EPS
電源コネクタ
2x 8-pin
グラフィックス機能
N/A
DirectX
N/A
N/A
OpenGL
N/A
3.0
OpenCL
3.0
N/A
Vulkan
N/A
9.0
CUDA
-
N/A
シェーダモデル
N/A
関連GPU比較
1
NVIDIA H100 CNX vs NVIDIA Tesla V100 PCIe 32 GB
2
NVIDIA H100 CNX vs NVIDIA RTX A6000
3
NVIDIA Tesla C2070 vs NVIDIA H100 CNX
4
NVIDIA Tesla V100 PCIe 16 GB vs NVIDIA H100 CNX
5
NVIDIA H100 CNX vs NVIDIA A800 PCIe 40 GB
6
NVIDIA H100 CNX vs NVIDIA A100 PCIe
7
AMD Radeon Instinct MI300 vs AMD Radeon Instinct MI250
8
NVIDIA H100 CNX vs NVIDIA A100 PCIe
9
NVIDIA H100 CNX vs NVIDIA H100 SXM5 96 GB
10
NVIDIA H100 CNX vs NVIDIA H100 SXM5 80 GB
© 2024 - TopCPU.net
お問い合わせ
プライバシーポリシー