구글, 엔비디아와 AMD 우회 위해 백만 개 칩 주문

kyojuro 2025년 10월 30일 목요일

Anthropic과 Google Cloud는 계약 기간 동안 포괄적인 클라우드 서비스와 함께 최대 100만 개의 TPU 칩을 제공하기로 약속한 TPU 기술 중심의 주요 파트너십을 발표했습니다. 이 이니셔티브는 내년까지 "1 기가와트 이상의 컴퓨팅 전력"을 제공하는 것을 목표로 하고 있습니다. 구글은 이 계약이 맞춤형 AI 칩과 관련된 대규모의 개별 계약으로, 기존 NVIDIA와 AMD 기술 거래를 넘어서는 중요한 업계 이정표라고 간주합니다. 2023년부터 Google Cloud에 독점적으로 의존해온 Anthropic은 동일한 기술 프레임워크 내에서 AI 기능을 확장하여 신속한 용량 증대를 보장하면서 마이그레이션 비용을 최소화할 계획입니다.

일반적인 GPU와 달리 TPU는 기계 학습 작업을 위해 ASIC로 특별히 설계되었습니다. Anthropic은 TPU에 계속 의존하고 있으며 "가격/성능 및 효율성"을 주요 장점으로 언급하면서, 모델 교육 및 배포에 TPU를 사용한 깊은 경험을 강조합니다. Google Cloud의 보완 서비스와 결합하여 "최대 100만 개의 TPU"를 활용하는 전략적 계획은 Anthropic의 연구 및 생산이 고도로 통합된 AI 인프라로부터 이익을 얻을 수 있음을 시사합니다. 더 넓은 업계 환경에서 NVIDIA의 CEO인 Jensen Huang은 Amazon Trainium과 같은 다른 전문 칩과 함께 Google TPU를 시장 경쟁의 핵심으로 인식했습니다. TPU에 대한 Anthropic의 헌신은 Google의 최대 외부 TPU 고객으로서의 입지를 강화하여 AI 애플리케이션 트렌드에 큰 영향을 미칩니다.

기존의 TPU 아키텍처를 유지하면 툴체인, 컴파일러 및 서버 프레임워크를 원활하게 유지할 수 있어 플랫폼 간 최적화에 대한 요구 사항이 줄어듭니다. 이러한 확장된 컴퓨팅 성능을 활용하면 모델 교육과 온라인 서비스를 향상시킬 수 있으며, 이 회사는 "수년간 최첨단 AI 최적화 인프라를 R&D 팀에 장착할 것입니다"라고 말합니다. "내년 초에 1 기가와트 이상의 컴퓨팅 전력을 채널링할 것으로 예상되는 것은 Google Cloud의 데이터 센터 성장과 공급 - 수요 역동성과 동기화되는 일회성 제공이 아닌 단계적 제공을 강조합니다. 이와 대조적으로 OpenAI와 Oracle은 NVIDIA와의 "다중 GW" 수준 계약을 계속 추진하고 있으며, 이는 GPU 클러스터를 확장하거나 대상 시나리오에 ASIC를 활용하는 이중 경로의 출현을 나타냅니다.

이 벤처는 AI 기술의 공급 측면의 다양화를 상징하는 중요한 역할을 합니다. AI 모델의 크기와 추론 처리량이 급속히 확장됨에 따라 선도적인 AI 회사들은 ASIC와 일반 용도 GPU를 통합하여 보다 예측 가능한 비용 효율성과 에너지 곡선을 달성하기 시작했습니다. 이러한 변화는 Jensen Huang이 강조한 "GPU 대 ASIC" 논쟁과 일치합니다 : GPU는 성숙한 생태계와 다재다능성을 자랑하지만 ASIC는 맞춤형 효율성과 성능을 제공합니다. Anthropic의 NVIDIA에서의 전략적 피벗을 둘러싼 추측적 해석에도 불구하고, 공식 입장은 다음과 같습니다 : Anthropic은 Google Cloud의 자체 개발 칩 생태계에 중요한 운영 규모를 제공하는 가장 큰 TPU 고객으로 부상했습니다.

Anthropic과 Google Cloud의 100만 개의 TPU 약속은 대규모 모델 교육 및 서비스 컨텍스트에서 GPU가 아닌 컴퓨팅의 상용화가 진행되고 있음을 보여줍니다. 즉각적으로 Anthropic은 상당한 새로운 리소스를 제공하고 스택 내 마이그레이션 비용을 절감하며 장기적으로 TPU 에코시스템의 컴파일, 스케줄링 및 유지 관리 도구 발전을 촉진할 수 있습니다. 이러한 개발을 종합하는 것은 GPU와 ASIC 기술의 동시 발전으로 형성되는 변화하는 시장 환경입니다. 이 논쟁이 진행됨에 따라 공급망의 강화와 비용 구조의 최적화는 AI 산업의 발전을 주도하는 핵심 요소가 될 것입니다.

관련 뉴스

© 2025 - TopCPU.net