Google passe commande pour un million de puces, visant à contourner NVIDIA et AMD

kyojuro jeudi 30 octobre 2025

Anthropic et Google Cloud ont récemment annoncé un partenariat majeur centré sur la technologie TPU, promettant de fournir jusqu'à un million de puces TPU ainsi que des services cloud intégrés pour toute la durée du contrat. Cette initiative vise à offrir « plus d'un gigawatt de puissance de calcul » d'ici l'année prochaine. Ce que Google considère comme le plus grand accord individuel impliquant des puces d'IA personnalisées, marque une étape importante pour l'industrie en dépassant les transactions technologiques traditionnelles entre NVIDIA et AMD. Depuis 2023, Anthropic mise exclusivement sur Google Cloud et prévoit maintenant d'élargir ses capacités d'IA dans le même cadre technologique, assurant ainsi un déploiement rapide de ses compétences tout en minimisant les coûts de transition.

Contrairement aux GPU généralistes, les TPU sont spécifiquement conçus comme ASIC pour les tâches liées à l'apprentissage automatique. Anthropic s'engage à continuer d'utiliser les TPU, soulignant les avantages significatifs en termes de « coût-efficacité et de performance », tout en tirant parti de son expérience approfondie avec ces puces pour la formation et le déploiement de modèles. Le choix stratégique d'utiliser « jusqu'à un million de TPU » couplé aux services additionnels de Google Cloud, suggère que le travail de recherche et de production d'Anthropic profitera d'une infrastructure d'IA extrêmement intégrée. Dans le cadre plus large de l'industrie, le PDG de NVIDIA, Jensen Huang, a reconnu que le TPU de Google, en parallèle d'autres puces spécialisées comme Amazon Trainium, occupe une position cruciale dans la compétition du marché. L'adoption des TPU par Anthropic confirme son statut de plus grand client externe de Google en matière de TPU, influençant ainsi fortement les tendances des applications d'IA de pointe.

Le maintien de l'architecture TPU existante offre une continuité fluide des chaînes d'outils, des compilateurs et des frameworks de serveurs, diminuant ainsi la nécessité d'optimisations multiplateformes. L'augmentation de cette puissance de calcul facilitera d'autant plus l'amélioration des formations de modèles et des services en ligne, présentés par l'entreprise comme « dotant notre équipe R&D d'une infrastructure d'optimisation de l'IA à la pointe pour les années à venir ». La perspective de déployer plus d'un gigawatt de puissance de calcul « dès l'année prochaine » souligne une livraison progressive plutôt que ponctuelle, en cohérence avec la croissance des centres de données de Google Cloud et la dynamique de l'offre et de la demande. A contrario, OpenAI et Oracle persistent dans la conclusion d'accords de niveau « multi-GW » avec NVIDIA, illustrant deux voies émergentes au sein de l'industrie pour accroître les clusters GPU ou exploiter les ASIC pour des scénarios spécifiques.

Cette avancée symbolise de manière significative la diversification de l'offre technologique en matière d'IA. Alors que la taille et la capacité d'inférence des modèles d'IA s'accroissent rapidement, les principales entreprises d'IA commencent à intégrer des ASIC en complément des GPU généralistes pour atteindre une efficacité coûtée et une courbe d'énergie plus prévisible. Ce changement épouse le débat « GPU vs ASIC » mis en lumière par Jensen Huang : alors que les GPU bénéficient d'écosystèmes matures et d'une grande polyvalence, les ASIC délivrent une efficacité et des performances sur mesure. Malgré les interprétations conjecturales autour du virage stratégique d'Anthropic vis-à-vis de NVIDIA, la position officielle indique : Anthropic se distingue comme le plus important client de TPU, apportant une dimension stratégique essentielle à l'écosystème de puces auto-développé par Google Cloud.

En somme, la collaboration entre Anthropic et Google Cloud sur un million de TPU exemplifie la commercialisation croissante de l'informatique hors GPU dans le cadre de formations à grande échelle et de services de modèles. À court terme, elle offre à Anthropic de nouvelles ressources substantielles, réduisant les coûts de migration intra-architecture ; à plus long terme, elle pourrait donner lieu à des avancées dans l'écosystème TPU en termes d'outils de compilation, de planification et de maintenance. Collectivement, ces développements témoignent de l'évolution du marché caractérisée par les avancées simultanées des technologies GPU et ASIC. À mesure que ce débat se développe, l'amélioration des chaînes d'approvisionnement et l'optimisation des coûts structurels deviendront des moteurs clés de transformation dans l'industrie de l'IA.

Actualités connexes

© 2025 - TopCPU.net