Accueil NVIDIA H100 CNX

NVIDIA H100 CNX

Il s'agit d'un GPU fabriqué avec un procédé 4nm de TSMC et sorti en mars 2023 , basé sur l'architecture Hopper de Nvidia. Il comprend 80 milliards de transistors, 14592 coeurs CUDA et 80GB de mémoire HBM2e, avec une mémoire cache L2 de 50MB, avec une performance théorique de 53.84TFLOPS, avec une consommation électrique totale de 350W.

Carte graphique

[Signaler des Problèmes]
Date de sortie
mars 2023
Génération
Tesla Hopper
Type
AI GPU
Interface de bus
PCIe 5.0 x16

Vitesses d'horloge

[Signaler des Problèmes]
Horloge de base
690MHz
Horloge Boost
1845MHz
Horloge Mémoire
1593MHz

Mémoire

[Signaler des Problèmes]
Taille de Mémoire
80GB
Type de Mémoire
HBM2e
Bus de Mémoire
5120bit
Bande Passante
2039GB/s

Config de rendu

[Signaler des Problèmes]
Nombre de SM
114
Unités d'Ombrage
14592
TMUs
456
ROPs
24
Cœurs de Tensor
456
Cache L1
256 KB (per SM)
Cache L2
50MB

Performance théorique

[Signaler des Problèmes]
Taux de Pixel
44.28GPixel/s
Taux de Texture
841.3GTexel/s
FP16 (demi)
215.4 TFLOPS
FP32 (flottant)
53.84 TFLOPS
FP64 (double précision)
26.92 TFLOPS

Processeur graphique

[Signaler des Problèmes]
Nom du GPU
GH100
Architecture
Hopper
Fonderie
TSMC
Taille de processus
4 nm
Transistors
80,000 million
Taille de Die
814mm²

Conception de carte

[Signaler des Problèmes]
TDP
350W
Alimentation suggérée
750W
Sorties
No outputs
Connecteurs d'alimentation
8-pin EPS

Fonctions graphiques

[Signaler des Problèmes]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Modèle de shader
N/A

Classements

[Signaler des Problèmes]
FP32 (flottant)
61.32 TFLOPS
NVIDIA L20 48 GB GDDR6
59.35 TFLOPS
NVIDIA H800 SXM5 80 GB HBM3
59.3 TFLOPS
NVIDIA H100 CNX 80 GB HBM2e
53.84 TFLOPS
52.43 TFLOPS
52.43 TFLOPS
52.22 TFLOPS

Comparaisons connexes

© 2024 - TopCPU.net   Contactez-nous Politique de confidentialité