Google bestellt eine Million Chips und plant, NVIDIA und AMD zu umgehen

kyojuro Donnerstag, 30. Oktober 2025

Anthropic und Google Cloud haben eine umfangreiche Partnerschaft mit dem Fokus auf TPU-Technologie angekündigt, in der sie sich verpflichtet haben, während der Vertragslaufzeit bis zu eine Million TPU-Chips neben umfangreichen Cloud-Dienstleistungen bereitzustellen. Diese Initiative zielt darauf ab, bis zum kommenden Jahr "mehr als ein Gigawatt Rechenleistung" zu liefern. Google betrachtet diese Verpflichtung als seinen größten Einzelvertrag für kundenspezifische KI-Chips und markiert einen bedeutenden Meilenstein in der Branche, der über herkömmliche Transaktionen mit NVIDIA- und AMD-Technologien hinausgeht. Seit 2023 vertraut Anthropic vollständig auf Google Cloud und plant nun, seine KI-Funktionen im selben technologischen Rahmen zu erweitern, um eine schnelle Kapazitätserweiterung zu ermöglichen und gleichzeitig die Migrationskosten zu minimieren.

TPU-Bild

Im Gegensatz zu allgemeinen GPUs sind TPUs speziell als ASICs für maschinelle Lernaufgaben entwickelt. Anthropic bleibt den TPUs treu und nennt "Preis/Leistung und Effizienz" als Hauptvorteile, wobei gleichzeitig die umfassende Erfahrung in der Nutzung von TPUs für das Training und die Bereitstellung von Modellen hervorgehoben wird. Der strategische Plan, "bis zu einer Million TPUs" in Verbindung mit den ergänzenden Dienstleistungen von Google Cloud zu nutzen, deutet darauf hin, dass Anthropics Forschung und Produktion von einer hochintegrierten KI-Infrastruktur profitieren werden. In der breiteren Branchenlandschaft hat NVIDIA-CEO Jensen Huang Google TPUs neben anderen spezialisierten Chips wie Amazon Trainium als zentrale Faktoren für den Marktwettbewerb anerkannt. Anthropics Engagement für TPUs festigt seine Position als größter externer TPU-Kunde von Google und beeinflusst erheblich die Trends bei KI-Anwendungen an der Spitze der Entwicklung.

Die Beibehaltung der etablierten TPU-Architektur ermöglicht eine nahtlose Fortsetzung von Toolchains, Compilern und Server-Frameworks, wodurch der Bedarf an plattformübergreifender Optimierung verringert wird. Mit dieser erweiterten Rechenleistung wird ein verbessertes Modelltraining und Online-Dienste möglich, die das Unternehmen als "unsere F&E-Teams für die kommenden Jahre mit einer führenden KI-Optimierungsinfrastruktur ausstatten" beschreibt. Die Prognose, mehr als ein Gigawatt Rechenleistung "ab nächstem Jahr" zu kanalisieren, unterstreicht eine phasierte statt einmalige Bereitstellung, die mit dem Wachstum des Rechenzentrums und der Dynamik von Angebot und Nachfrage bei Google Cloud synchronisiert wird. Im Gegensatz dazu verfolgen OpenAI und Oracle weiterhin Vereinbarungen auf "Multi-GW"-Ebene mit NVIDIA, was auf die Entstehung von zwei Wegen in der Branche hindeutet: Entweder GPU-Cluster zu skalieren oder ASICs für gezielte Szenarien zu nutzen.

Cloud-Server-Bild

Dieses Unterfangen symbolisiert eine Diversifizierung auf der Angebotsseite der KI-Technologie. Da KI-Modelle in Größe und Inferenzdurchsatz schnell wachsen, beginnen führende KI-Unternehmen, ASICs neben allgemeinen GPUs zu integrieren, um eine vorhersehbare Kosteneffizienz und Energiekurve zu erzielen. Diese Verschiebung passt zur Debatte "GPU vs. ASIC", die von Jensen Huang hervorgehoben wurde: Während GPUs über ausgereifte Ökosysteme und Vielseitigkeit verfügen, bieten ASICs maßgeschneiderte Effizienz und Leistung. Trotz spekulativer Interpretationen rund um die strategische Ausrichtung von Anthropic gegenüber NVIDIA, bleibt die offizielle Haltung bestehen: Anthropic erhebt sich als größter TPU-Kunde, der Google Clouds selbst entwickeltes Chip-Ökosystem in entscheidendem Ausmaß nutzt.

Die Zusammenarbeit von Anthropic mit Google Cloud hinsichtlich eines TPU-Engagements von bis zu einer Million Einheiten ist ein Beispiel für die fortschreitende kommerzielle Förderung von Nicht-GPU-Computing in großen Modellen und Dienstleistungskontexten. Kurzfristig versorgt es Anthropic mit erheblichen neuen Ressourcen und reduziert die Kosten der Migration innerhalb des Stacks; langfristig könnte es Fortschritte im TPU-Ökosystem in Bezug auf Kompilierung, Planung und Wartungstools vorantreiben. Diese Entwicklungen prägen die sich verändernde Marktlandschaft, die durch die gleichzeitige Weiterentwicklung von GPU- und ASIC-Technologien bestimmt wird. Während sich diese Debatte entfaltet, wird die Verbesserung der Lieferketten und die Optimierung der Kostenstrukturen zu entscheidenden Faktoren für die Zukunft der KI-Industrie werden.

Verwandte Nachrichten

© 2025 - TopCPU.net