Startseite NVIDIA H100 PCIe 80 GB

NVIDIA H100 PCIe 80 GB

Dies ist eine GPU mit TSMC 4nm-Technologie, basierend auf der Hopper-Architektur von Nvidia mit dem Markteinführungsdatum Mär 2023. Es hat 80 Milliarden Transistoren und 14592 CUDA-Kerne und 80GB HBM2e Grafikspeicher, mit 50MB Level-2-Cache, theoretische Leistung 51.22TFLOPS, Gesamtleistungsaufnahme 350 W aufweisen.

Grafikkarte

[Fehler melden]
Veröffentlichungsdatum
Mär 2023
Generation
Tesla Hopper
Typ
AI GPU
Bus-Schnittstelle
PCIe 5.0 x16

Taktraten

[Fehler melden]
Basis-Takt
1095MHz
Boost-Takt
1755MHz
Speichertakt
1593MHz

Speicher

[Fehler melden]
Speichergröße
80GB
Speichertyp
HBM2e
Speicherbus
5120bit
Bandbreite
2039GB/s

Render-Konfiguration

[Fehler melden]
SM-Anzahl
114
Shading-Einheiten
14592
TMUs
456
ROPs
24
Tensor-Kerne
456
L1-Cache
256 KB (per SM)
L2-Cache
50MB

Theoretische Leistung

[Fehler melden]
Pixeltakt
42.12 GPixel/s
Texture-Takt
800.3 GTexel/s
FP16 (halbe Genauigkeit)
204.9 TFLOPS
FP32 (Gleitkommazahl)
51.22 TFLOPS
FP64 (Doppelte Gleitkommazahl)
25.61 TFLOPS

Grafikprozessor

[Fehler melden]
GPU-Name
GH100
Architektur
Hopper
Foundry
TSMC
Prozessgröße
4 nm
Transistoren
80000 million
Die-Größe
814mm²

Board-Design

[Fehler melden]
TDP (Thermal Design Power)
350W
Empfohlene PSU (Stromversorgung)
750W
Ausgänge
No outputs
Stromanschlüsse
1x 16-pin

Grafikfunktionen

[Fehler melden]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Shader-Modell
N/A

Ranking

[Fehler melden]
FP32 Gleitkomma-Performance
52.22 TFLOPS
51.48 TFLOPS
NVIDIA H100 PCIe 80 GB HBM2e
51.22 TFLOPS
51.22 TFLOPS
51.22 TFLOPS
48.74 TFLOPS
48.74 TFLOPS

Vergleich

© 2024 - TopCPU.net   Kontaktieren Sie uns. Datenschutzrichtlinie