Seit dem letzten Jahr sind die KI-GPUs von NVIDIA selten geworden, was zu längeren Lieferzyklen führt. Beispielsweise kann der Lieferzyklus für Server mit H100-basierten Komponenten zwischen 36 und 52 Wochen betragen. TSMC, verantwortlich für Herstellung und Packaging dieser Chips, hatte mit erheblichen Kapazitätsengpässen zu kämpfen, vor allem wegen der begrenzten Verfügbarkeit von CoWoS-Packages.
Laut DigiTimes berichten Brancheninsider von einer deutlichen Verbesserung der Lieferengpässe bei H100-Rechenkarten und verstärkten Auslieferungen. In der ersten Hälfte des Jahres 2024 standen KI-Server vor dem Dilemma, dass Bestellungen vorlagen, aber keine Materialien verfügbar waren. Gegen Ende des zweiten Quartals begann sich die Lage zu bessern. Es wird erwartet, dass die Auslieferungen von KI-Servern in der zweiten Jahreshälfte 2024 weiter zunehmen, unterstützt durch die neue Blackwell-Architektur und B100/200-Lieferungen.
Im zweiten Quartal wurden viele seit Langem bestehende Aufträge endlich erfüllt, und die Lücke zwischen Angebot und Nachfrage verringerte sich auf eine einstellige Zahl. Zum Vergleich: Im Jahr 2023 lag die Diskrepanz zwischen Angebot und Nachfrage noch bei 30 % bis 40 %. Die Original Design Manufacturers (ODMs) haben diese Veränderungen zur Kenntnis genommen und im Juni ein beachtliches Umsatzwachstum verzeichnet. Mit der Einführung von B100/200 erwarten die ODMs einen höheren Umsatzanteil bei KI-Servern.
Die Anbieter von Komponenten profitieren ebenfalls von den gelösten Materialproblemen in der Lieferkette. Berichten zufolge hat die Weiterentwicklung der KI-GPUs den Wert der Lüfterleistung erhöht, der im Vergleich zu KI-Servern mit H100 und A100 von 350 auf 550 US-Dollar gestiegen ist. Obwohl der genaue Anstieg für die kommenden B100/200-GPUs noch unklar ist, da diese noch nicht in Serienproduktion sind, werden noch höhere Werte erwartet.