グーグル、NVIDIAとAMDを回避するために数百万のチップを注文

kyojuro 2025年10月30日木曜日

AnthropicとGoogle Cloudは、TPU技術を中心とした主要なパートナーシップを発表しました。契約期間中、最大100万台のTPUチップと包括的なクラウドサービスを提供することを目指しています。このイニシアチブは、来年までに「1ギガワット以上のコンピューティングパワー」を供給することを目指しています。Googleは、この取り組みをカスタムAIチップを含む最大の単一取引と見ており、NVIDIAやAMDの技術取引に依存しない重要な業界マイルストーンと位置付けています。2023年からGoogle Cloudを独占的に利用しているAnthropicは、同じ技術フレームワーク内でAI機能を拡大し、移行コストを最小限に抑えつつ迅速な容量強化を確実にします。

汎用GPUとは異なり、TPUは機械学習タスク向けに特別に設計されたASICです。AnthropicはTPUを重視しており、主要な利点として「価格/性能と効率性」を挙げています。また、モデルのトレーニングとデプロイにTPUを使用した豊富な経験を強調しています。最大100万TPUをGoogle Cloudの補完サービスと組み合わせて活用する戦略計画は、Anthropicの研究と生産が高度に統合されたAIインフラの恩恵を受けることを示唆しています。業界全体では、NVIDIAのCEOであるJensen Huangは、Amazon Trainiumなどの他の特殊チップと共にGoogle TPUを市場競争の中心として認識しています。AnthropicのTPUへのコミットメントにより、Google最大の外部TPU顧客としての地位を築き、AIアプリケーションのトレンドに大きく影響を及ぼしています。

確立されたTPUアーキテクチャを維持することで、ツールチェーン、コンパイラ、サーバーフレームワークのシームレスな継続が可能になり、クロスプラットフォームの最適化需要を低減します。この拡張されたコンピューティング能力を活用することで、モデルのトレーニングとオンラインサービスの強化が促進され、会社は「R&Dチームに最先端のAI最適化インフラを今後数年間提供する」ことを謳っています。「早ければ来年に1ギガワット以上のコンピューティングパワーを供給する見通しは、Google Cloudのデータセンターの成長と需要供給のダイナミクスと同期した、段階的なデリバリーを強調しています。対照的に、OpenAIとOracleはNVIDIAとの「マルチGW」契約を追求し続け、GPUクラスターを拡張するか、特定シナリオでASICを活用する業界におけるデュアルパスの出現を示しています。

このベンチャーはAI技術の供給サイドの多様化を象徴しています。AIモデルのサイズと推論スループットが急速に拡大する中、大手AI企業は汎用GPUと並んでASICを統合し始め、より予測可能なコスト効率とエネルギー曲線を達成しています。GPUは成熟したエコシステムと汎用性を誇る一方で、ASICはカスタマイズされた効率とパフォーマンスを提供します。AnthropicのNVIDIAからの戦略的シフトに関する憶測が飛び交っている中、公式の立場としては、アンソロピックはTPUの最大顧客として台頭し、Google Cloudの独自開発のチップエコシステムに重要な運用規模を提供しています。

100万TPUのコミットメントに関するAnthropicとGoogle Cloudの協力は、大規模モデルのトレーニングおよびサービスコンテキストにおける非GPUコンピューティングの商用化が進んでいる例です。短期的には、Anthropicに大幅な新リソースを提供し、スタック内移行コストを削減します。長期的には、コンパイル、スケジューリング、メンテナンスツールのTPUエコシステムの進歩を促進することが可能です。GPUとASICの両技術の同時進展によって形成される市場環境の変化は、これらの開発を概観しています。議論が進む中で、サプライチェーンの強化とコスト構造の最適化はAI業界の進化を牽引する重要な要因となるでしょう。

関連ニュース

© 2025 - TopCPU.net