Casa NVIDIA H100 PCIe 80 GB

NVIDIA H100 PCIe 80 GB

Questa è una GPU prodotta con il processo 4nm di TSMC, basata sull'architettura Hopper di Nvidia rilasciata nel Mar 2023. Presenta 80 miliardi di transistor, 14592 core CUDA e 80GB di memoria HBM2e, con 50MB di cache L2, prestazioni teoriche di 51.22TFLOPS, con un consumo energetico totale di 350W.

Scheda grafica

[Segnala Problemi]
Data di rilascio
mar 2023
Generazione
Tesla Hopper
Tipo
AI GPU
Interfaccia bus
PCIe 5.0 x16

Velocità di clock

[Segnala Problemi]
Clock base
1095MHz
Boost Clock
1755MHz
Clock memoria
1593MHz

Memoria

[Segnala Problemi]
Dimensione memoria
80GB
Tipo di memoria
HBM2e
Bus memoria
5120bit
Larghezza di banda
2039GB/s

Configurazione del rendering

[Segnala Problemi]
Conteggio SM
114
Unità di ombreggiatura
14592
TMUs
456
ROPs
24
Core Tensor
456
Cache L1
256 KB (per SM)
Cache L2
50MB

Prestazioni teoriche

[Segnala Problemi]
Tasso di pixel
42.12GPixel/s
Tasso di texture
800.3GTexel/s
FP16 (metà)
204.9 TFLOPS
FP32 (float)
51.22 TFLOPS
FP64 (doppio)
25.61 TFLOPS

Processore grafico

[Segnala Problemi]
Nome GPU
GH100
Architettura
Hopper
Fonderia
TSMC
Dimensione del processo
4 nm
Transistor
80,000 million
Dimensione del dado
814mm²

Design della scheda

[Segnala Problemi]
TDP
350W
PSU suggerito
750W
Uscite
No outputs
Connettori di alimentazione
1x 16-pin

Funzionalità grafiche

[Segnala Problemi]
DirectX
N/A
OpenGL
N/A
OpenCL
3.0
Vulkan
N/A
CUDA
9.0
Modello Shader
N/A

Classifiche

[Segnala Problemi]
FP32 (virgola mobile)
52.22 TFLOPS
51.48 TFLOPS
NVIDIA H100 PCIe 80 GB HBM2e
51.22 TFLOPS
51.22 TFLOPS
51.22 TFLOPS
48.74 TFLOPS
48.74 TFLOPS

Confronti correlati

© 2024 - TopCPU.net   Contattaci Informativa sulla privacy