NVIDIA는 Blackwell Ultra가 출시된 지 6개월 만에 9월에 차세대 Rubin AI 가속기를 고객에게 샘플링하기 시작합니다. 이는 놀라운 개발 속도를 나타냅니다. Rubin R 100 GPU와 Vera CPU는 TSMC의 3 nm 프로세스를 활용하고, HBM 4 메모리를 통합하며, Chiplet 디자인을 활용합니다. 성능, 전력 효율성, 아키텍처가 종합적으로 업그레이드되었습니다.
Rubin R 100 GPU는 Blackwell 아키텍처를 기반으로 한 NVIDIA의 최신 AI 가속기로, 데이터 센터의 증가하는 요구를 충족하기 위해 제작되었습니다. TSMC의 N 3 P (3 nm 성능 향상) 프로세스를 활용하여, 트랜지스터 밀도를 20% 향상시키고, 전력 소비는 25-30% 감소시키며, Blackwell B 100에 비해 성능이 10-30% 향상되었습니다. 이로 인해 R 100은 AI 교육 및 추론 작업에 있어 전력 효율성이 크게 향상되었습니다. 칩렛 디자인 도입으로 제조 수율과 아키텍처의 유연성을 높였습니다. 4 x reticle 설계를 통해 Blackwell의 3.3 x reticle에 비해 칩 면적을 증가시켜 많은 컴퓨팅 유닛과 메모리 인터페이스를 포함할 수 있습니다.
메모리 면에서 R 100은 총 288 GB 용량의 8개 HBM 4 스택을 통해 최대 13 TB/s의 대역폭을 달성할 수 있으며, 이는 Blackwell B 100의 약 8 TB/s 대역폭에 비해 상당한 개선입니다. HBM 4는 12 또는 16 레이어 스택 기술을 사용하여, 대형 언어 모델과 복잡한 AI 추론에 필수적인 강력한 메모리 지원을 보장합니다. R 100은 100 x 100 mm 기판과 최대 12개의 HBM 4 스택을 수용하는 TSMC의 CoWoS-L 패키징 기술을 사용하여, 보다 많은 Rubin Ultra 확장을 위한 견고한 기반을 마련합니다. I/O 칩은 N 5 B (5 nm 향상) 프로세스를 사용하여 데이터 전송 효율성을 최적화합니다.
Rubin GPU와 함께 Vera CPU는 88 코어와 176 스레드를 갖춘 맞춤형 ARM Olympus 코어를 기반으로 제작된 Grace CPU의 대대적인 개조를 나타냅니다. Vera는 Grace에 비해 눈에 띄게 개선된 성능을 제공합니다. 메모리 대역폭은 1.8 TB/s로 증가했고, 그에 따라 데이터 처리 능력이 크게 향상됩니다. Vera는 NVLink-C2C 고속 상호 연결을 통해 Rubin GPU에 매끄럽게 연결되며 1.8 TB/s의 대역폭으로 효율적인 칩 간 통신을 가능합니다. NVIDIA는 ARM 명령어 집합과 마이크로 아키텍처를 최적화하여 Vera를 AI 워크로드에 최적화했습니다.
Computex 2024에서 Rubin 아키텍처를 발표한 이후로 NVIDIA는 끊임없이 제품 로드맵을 발전시키고 있습니다. Rubin R 100은 2025년 4분기에 양산될 예정이며, 관련 DGX 및 HGX 시스템은 2026년 상반기에 출시될 예정입니다. NVIDIA는 2026년 하반기까지 Rubin GPU 및 Vera CPU를 채택하여 600 kW 전력을 소비하는 Vera Rubin NVL 144 플랫폼을 공개할 예정입니다. 이 설정은 FP4 추론 성능과 FP8 교육 성능에서 비약적인 성능 향상을 제공합니다.
2027년까지 Rubin Ultra NVL 576 플랫폼은 16개의 HBM 4e 스택과 최대 1 TB의 메모리를 포함한 576개의 Rubin Ultra GPU를 호스팅할 것입니다. 이것은 비약적인 성능 향상을 제공하며, NVLink 7 상호연결과 ConnectX-9 NIC를 통합해 시스템 확장성을 증대시킵니다.
Rubin의 신속한 출시는 NVIDIA가 TSMC 및 SK Hynix와 같은 주요 파트너와 협력하여 이루어졌습니다. TSMC는 CoWoS 패키징 수요를 충족하기 위해 2025년까지 월 8만 개의 웨이퍼를 생산할 예정이며, SK Hynix는 2024년 HBM 4 생산을 완료하고 NVIDIA에 12 레이어 HBM 4 샘플을 공급하여 2025년 대량 생산을 준비 중입니다.
데이터센터 내 전력 수요가 급증함에 따라 NVIDIA는 에너지 효율성을 설계의 핵심에 두고 있습니다. Rubin R 100은 3 nm 공정과 HBM 4 메모리를 통해 전력을 절약하고 액체 냉각 기술을 활용하여 열 관리를 최적화합니다. Vera Rubin NVL 144 플랫폼은 최대 600 kW 전력을 소비할 수 있지만 전력 단위당 뛰어난 성능을 제공합니다. 시장 분석은 2025년까지 글로벌 AI 데이터 센터 시장이 2000억 달러로 성장할 것이라 예측하며, NVIDIA 기술이 선도할 것입니다. Microsoft, Google, Amazon 등 기술 대기업들은 Blackwell 칩을 예약하고, Rubin의 조기 도입으로 NVIDIA의 시장 지배력이 강화되고 있습니다.
NVIDIA는 2028년에 Feynman 아키텍처를 공개할 계획입니다. Rubin과 Vera 기술의 성공적인 배포는 AI 기술을 보다 범용적인 프레임워크로 이끌 것입니다. 2025년 9월 샘플 공급과 2026년까지의 생산 배포를 통해 NVIDIA는 글로벌 AI 시장에서 리더십을 강화하고 데이터센터 및 AI 애플리케이션의 발전을 주도하는 위치를 점하고 있습니다.