Accueil NVIDIA H100 PCIe 80 GB

NVIDIA H100 PCIe 80 GB

Il s'agit d'un GPU fabriqué avec un procédé 4nm de TSMC et sorti en mars 2023 , basé sur l'architecture Hopper de Nvidia. Il comprend 80 milliards de transistors, 14592 coeurs CUDA et 80GB de mémoire HBM2e, avec une mémoire cache L2 de 50MB, avec une performance théorique de 51.22TFLOPS, avec une consommation électrique totale de 350W.

Carte graphique

[Signaler des Problèmes]
Date de sortie
mars 2023
Génération
Tesla Hopper
Type
AI GPU
Interface de bus
PCIe 5.0 x16

Vitesses d'horloge

[Signaler des Problèmes]
Horloge de base
1095MHz
Horloge Boost
1755MHz
Horloge Mémoire
1593MHz

Mémoire

[Signaler des Problèmes]
Taille de Mémoire
80GB
Type de Mémoire
HBM2e
Bus de Mémoire
5120bit
Bande Passante
2039GB/s

Config de rendu

[Signaler des Problèmes]
Nombre de SM
114
Unités d'Ombrage
14592
TMUs
456
ROPs
24
Cœurs de Tensor
456
Cache L1
256 KB (per SM)
Cache L2
50MB

Performance théorique

[Signaler des Problèmes]
Taux de Pixel
42.12GPixel/s
Taux de Texture
800.3GTexel/s
FP16 (demi)
204.9 TFLOPS
FP32 (flottant)
51.22 TFLOPS
FP64 (double précision)
25.61 TFLOPS

Processeur graphique

[Signaler des Problèmes]
Nom du GPU
GH100
Architecture
Hopper
Fonderie
TSMC
Taille de processus
4 nm
Transistors
80,000 million
Taille de Die
814mm²

Conception de carte

[Signaler des Problèmes]
TDP
350W
Alimentation suggérée
750W
Sorties
No outputs
Connecteurs d'alimentation
1x 16-pin

Fonctions graphiques

[Signaler des Problèmes]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Modèle de shader
N/A

Classements

[Signaler des Problèmes]
FP32 (flottant)
52.22 TFLOPS
51.48 TFLOPS
NVIDIA H100 PCIe 80 GB HBM2e
51.22 TFLOPS
51.22 TFLOPS
51.22 TFLOPS
48.74 TFLOPS
48.74 TFLOPS

Comparaisons connexes

© 2024 - TopCPU.net   Contactez-nous Politique de confidentialité