NVIDIA hat auf der SC24 Supercomputing-Konferenz die Erweiterung seiner Rechenzentrum-Produktlinie mit den GB200 NVL4 und H200 NVL PCIe-GPUs vorgestellt.
Der GB200 NVL4 ist eine fortschrittliche Single-Server-Lösung und erweitert die Palette der Blackwell-Architektur. Er integriert nahtlos vier Blackwell-GPUs und zwei Grace-CPUs auf einem einzigen Motherboard und nutzt die NVLink-Interconnect-Technologie für eine effiziente Kommunikation. Mit 768 GB HBM3E und 960 GB LPDDR5X-Speicher bietet er eine beeindruckende kombinierte Speicherbandbreite von 32 TB/s. Diese Konfiguration ermöglicht es dem System, anspruchsvolle KI-Workloads mit außergewöhnlicher Effizienz zu bewältigen.
Laut NVIDIA bietet der GB200 NVL4 im Vergleich zum GH200 NVL4 eine 2,2-fache Simulationsleistung, 1,8-fache KI-Trainingsleistung und 1,8-fache KI-Inferenzleistung. Das System ist energieintensiv, verbraucht 5.400 Watt und verfügt über ein hochmodernes Flüssigkeitskühlsystem, um optimale Leistungsniveaus aufrechtzuerhalten. Es wird voraussichtlich in den Server-Racks von Großrechner-Kunden zum Einsatz kommen.
Die H200 NVL PCIe-GPU von NVIDIA ist die neueste Ergänzung der Hopper-Familie. Sie wurde speziell für den Einsatz in Rechenzentren entwickelt und lässt sich nahtlos in niedrigere, luftgekühlte Rack-Designs integrieren. Diese Flexibilität gewährleistet eine effiziente Beschleunigung für eine Vielzahl von KI- und HPC-Anwendungen. Eine kürzlich durchgeführte Umfrage zeigt, dass etwa 70 % der Racks in Unternehmen mit oder unter 20 kW arbeiten und auf Luftkühlung angewiesen sind, was die Bedeutung von PCIe-GPUs unterstreicht.
Die H200 NVL PCIe GPU belegt zwei Steckplätze und hat eine TDP von 600 Watt, weniger als die 700 Watt des H200 SXM. Zwar führt dies zu einer Reduzierung der INT8 Tensor-Core-Operationen um 15,6 %, doch die GPU unterstützt 900 GB/s NVLink-Vernetzungen in Dual- oder Quad-Konfigurationen. Im Vergleich zum H100 NVL verfügt das neue Modell über 1,5-mal mehr Speicher, 1,2-mal mehr Bandbreite und bietet 1,7-mal mehr KI-Inferenzleistung sowie eine 30 % höhere Effizienz bei HPC-Anwendungen.