NVIDIA Blackwell-GPUs sind für ihre Robustheit bekannt, doch wie leistungsfähig sind sie wirklich? Neben den offiziellen Werbedaten haben wir nun einen ersten Einblick in reale Testdaten von MLCommons MLPerf v4.1 erhalten, der führenden Plattform zur Bewertung der KI-Trainings- und Inferenzleistung.
Der Vergleich umfasst zwei Generationen von Servern, die HGX B200 und die HGX H200. Erstere ist mit bis zu acht Blackwell-GPUs B200 ausgestattet, die jeweils einen Stromverbrauch von bis zu 1000 Watt haben.
Die Vor-Training-Benchmarks des GPT-3 weisen darauf hin, dass die Blackwell-GPUs ihre Leistung im Vergleich zur vorherigen Hopper-Generation verdoppelt haben.
Bei den Feinabstimmungsaufgaben der Llama 2 mit 70 Milliarden Parametern zeigt Blackwell eine Leistungssteigerung von bis zu 2,2-fachen.
Die Blackwell-Plattform integriert insbesondere ConnectX-7 SuperNICs, Quantum-2 InfiniBand-Switches und den NVLink-Interconnect-Bus der fünften Generation. Diese Funktionen gewährleisten eine robuste Kommunikation zwischen den Knoten, ermöglichen eine ausgewogene Verteilung der KI-Trainingslasten und steigern die Gesamteffizienz.
Um beispielsweise die gleiche Leistung mit den 175 Milliarden Parametern des GPT-3 zu erreichen, benötigt man 256 GPUs der Hopper-Generation, während Blackwell dies mit nur 64 erreicht.