Accueil NVIDIA H100 PCIe

NVIDIA H100 PCIe

Il s'agit d'un GPU fabriqué avec un procédé 4nm de TSMC et sorti en mars 2022 , basé sur l'architecture Hopper de Nvidia. Il comprend 80 milliards de transistors, 14592 coeurs CUDA et 80GB de mémoire HBM2e, avec une mémoire cache L2 de 50MB, avec une performance théorique de 51.22TFLOPS, avec une consommation électrique totale de 350W.

Carte graphique

[Signaler des Problèmes]
Date de sortie
mars 2022
Génération
Tesla Hopper
Type
AI GPU
Interface de bus
PCIe 5.0 x16

Vitesses d'horloge

[Signaler des Problèmes]
Horloge de base
1095MHz
Horloge Boost
1755MHz
Horloge Mémoire
1593MHz

Mémoire

[Signaler des Problèmes]
Taille de Mémoire
80GB
Type de Mémoire
HBM2e
Bus de Mémoire
5120bit
Bande Passante
2039GB/s

Config de rendu

[Signaler des Problèmes]
Nombre de SM
114
Unités d'Ombrage
14592
TMUs
456
ROPs
24
Cœurs de Tensor
456
Cache L1
256 KB (per SM)
Cache L2
50MB

Performance théorique

[Signaler des Problèmes]
Taux de Pixel
42.12GPixel/s
Taux de Texture
800.3GTexel/s
FP16 (demi)
204.9 TFLOPS
FP32 (flottant)
51.22 TFLOPS
FP64 (double précision)
25.61 TFLOPS

Processeur graphique

[Signaler des Problèmes]
Nom du GPU
GH100
Architecture
Hopper
Fonderie
TSMC
Taille de processus
4 nm
Transistors
80,000 million
Taille de Die
814mm²

Conception de carte

[Signaler des Problèmes]
TDP
350W
Alimentation suggérée
750W
Sorties
No outputs
Connecteurs d'alimentation
1x 16-pin

Fonctions graphiques

[Signaler des Problèmes]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Modèle de shader
N/A

Classements

[Signaler des Problèmes]
FP32 (flottant)
52.22 TFLOPS
51.48 TFLOPS
NVIDIA H100 PCIe 80 GB HBM2e
51.22 TFLOPS
51.22 TFLOPS
51.22 TFLOPS
48.74 TFLOPS
48.74 TFLOPS
Blender
4950
NVIDIA H100 PCIe 80 GB HBM2e
4845
4310
NVIDIA A40 PCIe 48 GB GDDR6
4170

Comparaisons connexes

© 2024 - TopCPU.net   Contactez-nous Politique de confidentialité