NVIDIA steht vor einem Rückschlag: GB300-Verkäufe bleiben hinter den Erwartungen zurück.

kyojuro Dienstag, 1. April 2025

NVIDIA, ein führendes Unternehmen im Bereich der künstlichen Intelligenz, sieht sich mit seinem neuesten Spitzenerzeugnis vor erheblichen Herausforderungen. Die auf der GTC 2025 enthüllten GB300 AI-Server wurden einerseits mit großen Erwartungen an eine Leistungssteigerung begrüßt, andererseits jedoch auch mit gemischten Reaktionen bezüglich der Lieferkettenprobleme und dem Kundenfeedback konfrontiert. Diese KI-Server der nächsten Generation kämpfen mit den Schwierigkeiten, die bei früheren Modellen erfolgreich überwunden wurden. Ihre technische Komplexität und die Marktvorliebe für bereits etablierte Lösungen stehen einer weitreichenden Akzeptanz im Weg.

Image

Die GB300 ist ein entscheidendes Upgrade der Blackwell-Serie, indem sie die neue B300 GPU einführt. Diese leistungsstarke Karte benötigt bis zu 1.400 W, steigert die FP4-Leistung um 50% und erhöht die Speicherkapazität von 192 GB auf 288 GB mit einem 12-schichtigen HBM3E-Stack. Die Netzwerkkapazitäten wurden durch die Umstellung von ConnectX-7 auf ConnectX-8 optimiert und die Bandbreite des optischen Moduls wurde auf beeindruckende 1,6 Tbps verdoppelt. Diese Neuerungen zielen darauf ab, den steigenden Bedarf an KI-Inferenz und -Training zu befriedigen, insbesondere in fortschrittlichen Anwendungen wie agentenbasierter und physischer KI. Doch es gibt das bekannte Sprichwort: "Ein zu großer Sprung kann zu Instabilität führen." Die signifikanten technologischen Fortschritte von NVIDIA müssen erst noch eine breite Marktakzeptanz finden.

Im Gegensatz dazu stand auch das Vorgängermodell GB200 vor Herausforderungen. Im Jahr 2024 lieferte NVIDIA lediglich etwa 15.000 GB200 AI-Server aus, was im Vergleich zu den vorhergehenden Erfolgen der Hopper-Serie enttäuschend war. Dies war vor allem auf die anfänglichen Probleme mit TSMC's fortgeschrittenen Verpackungstechnologien wie CoWoS-L zurückzuführen, die geringere Erträge lieferten. Obwohl dieses Hindernis teilweise überwunden wurde, blieben Implementationsschwierigkeiten bestehen.

Die Installation der GB200 NVL72 Server Racks stellte sich als besonders komplex heraus, da eine einzige Einrichtung 5 bis 7 Tage in Anspruch nimmt und häufige Stabilitätsprobleme sowie Systemabstürze auftreten. Das NVLink Kupferverbindungsdesign verlangt spezifische Anpassungen pro Einsatz, was die Handhabung von rund 5.000 Kabeln verkompliziert. Dies wird noch durch die Abhängigkeit von NVIDIA-Technikern für die Konfiguration erschwert, was bei Cloud-Service-Providern (CSPs) zu Frustrationen führt, speziell wenn diese bei Clusterausfällen auf den technischen Support von NVIDIA angewiesen sind.

Image

Gleichzeitig herrscht enormer Druck auf die Lieferkette. Die ursprünglich für Ende 2025 vorgesehene Massenproduktion des GB300 verzögert sich, wobei Kunden-Testmuster erst gegen Jahresende erwartet werden und die Massenproduktion möglicherweise auf 2026 verschoben wird. Diese Verzögerungen stehen in Zusammenhang mit der Konstruktionskomplexität, der Notwendigkeit von Flüssigkeitskühllösungen und den gesteigerten Leistungsanforderungen des Hochleistungsbaus. Der erwartete Strombedarf des GB300 stellt für die Rechenzentrumsinfrastrukturen eine Herausforderung dar, da der prognostizierte Verbrauch deutlich über den 140 kW des GB200 NVL72 Racks liegt, was die Produktionskosten in die Höhe treibt und eine Nachrüstung bestehender Rechenzentren erfordert, um Flüssigkeitskühltechniken zu integrieren.

Führende CSPs, darunter Microsoft, Google und Amazon, begegnen dem GB300 daher mit Vorsicht, da frühere Erfahrungen mit dem GB200 hinter den Erwartungen lagen. Microsofts Tests mit dem GB200 NVL72 ergaben mehrfachen Bedarf an Hardware-Debugging, was die Kapazitätsplanung der Rechenzentren störte. Diese Unzufriedenheit führte dazu, dass CSPs NVIDIA's stabile Alternativen, wie die HGX-Serie, vorzuziehen begannen. Die Hopper-Architektur des HGX H100 unterstützt 60 kW bis 80 kW pro Rack, ist mit vorhandenen Luftkühlungssystemen kompatibel und bietet daher eine überlegenere Flexibilität als die Modelle GB200 und GB300. Zusätzlich bevorzugt man das HGX B200, das mit acht B200 GPUs NVLink-Geschwindigkeiten von bis zu 400 Gbps unterstützt, auf KI-Plattformen mit x86-Architektur, die bei Hyperscalern sowie kleinen bis mittleren Cloud-Anbietern beliebt ist.

Auch die Veränderungen in der Nachfrage spiegeln diesen Trend wider. Während die Bestellungen für die GB300 hinter den Erwartungen zurückbleiben, steigt die Nachfrage nach HGX-Systemen stetig an. Analysten führen die Preisgestaltung des GB300 als potenzielle Barriere an, da der GB200 NVL72 etwa 3 Millionen US-Dollar pro Einheit kostet. Die höheren Kosten des GB300, bedingt durch seine Flüssigkeitskühlung und Leistungsmerkmale, könnten preisbewusste Kunden abschrecken, besonders wenn ein sofortiger Return on Investment (ROI) unwahrscheinlich erscheint.

Image

Gleichzeitig entwickelt sich die Konkurrenzlandschaft mit Konkurrenten wie AMD und Intel weiter. AMD's Instinct MI300 punktet mit einem vorteilhaften Preis-Leistungs-Verhältnis und einer Open-Source-Plattform, während Intel's Gaudi 3 bei spezifischen Inferenz-Anwendungen hervortritt. Diese Alternativen erweitern zwar die Auswahl für Kunden, bedrohen jedoch die Marktführerschaft von NVIDIA noch nicht ernsthaft.

Als Antwort auf diese Herausforderungen prüft NVIDIA seine strategische Ausrichtung und erwägt die Einführung einer Single-GPU-Blackwell-Variante, um die Vorlaufzeiten zu verkürzen. Ob diese Maßnahmen das Vertrauen der Kunden wieder stärken können, bleibt abzuwarten, da NVIDIA weiterhin zwischen Innovation und Marktanforderungen navigieren muss, während es bestrebt ist, die Effizienz der Lieferkette mit den Kundenerwartungen an Stabilität und Erschwinglichkeit in Einklang zu bringen. Obwohl NVIDIA ambitioniert ist, steht das Unternehmen vor einem komplexen Weg, der die Notwendigkeit einer schnellen Anpassung an Markt- und Betriebsherausforderungen unterstreicht.

Verwandte Nachrichten

© 2025 - TopCPU.net