A NVIDIA está pronta para iniciar a amostragem do seu acelerador de IA Rubin de próxima geração em setembro para os clientes, apenas seis meses após o lançamento do Blackwell Ultra, demonstrando um ritmo de desenvolvimento impressionantemente rápido. Tanto as GPUs Rubin R100 quanto as novas CPUs Vera utilizam o processo de 3nm da TSMC, incorporam memória HBM4 e empregam o design Chiplet, oferecendo melhorias significativas em desempenho, eficiência energética e arquitetura.
A GPU Rubin R100 representa o mais avançado acelerador de IA da NVIDIA, sucedendo a arquitetura Blackwell e projetada para as crescentes demandas computacionais dos data centers. Construída com o processo N3P da TSMC (3nm de alto desempenho), o R100 apresenta um aumento de 20% na densidade dos transistores, redução de 25 a 30% no consumo de energia e um incremento no desempenho entre 10 a 30% em comparação ao processo de 4nm utilizado no Blackwell B100. Esses avanços tecnológicos aumentam significativamente a relação de eficiência energética do R100, favorecendo-o para tarefas intensivas de treinamento e inferência de IA. Notavelmente, o R100 adota o design Chiplet, melhorando o rendimento de fabricação e a flexibilidade arquitetônica, integrando múltiplos módulos menores de chip. Seu design reticular 4x amplia a área do chip em relação à retícula 3,3x do Blackwell, permitindo a inclusão de mais unidades de computação e interfaces de memória.
Em termos de memória, o R100 utiliza oito pilhas HBM4 com uma capacidade total de 288 GB, podendo alcançar larguras de banda de até 13 TB/s, um avanço considerável sobre o HBM3E do Blackwell B100, que atinge cerca de 8 TB/s. O HBM4 emprega tecnologia de empilhamento de 12 ou 16 camadas, oferecendo capacidades de pilha única de 24Gb ou 32Gb, garantindo um robusto suporte de memória essencial para grandes modelos de linguagem e raciocínio complexo de IA. Além disso, o R100 emprega a tecnologia de embalagem CoWoS-L da TSMC, que acomoda substratos de 100 x 100 mm e até 12 pilhas HBM4, estabelecendo uma base sólida para novas expansões do Rubin Ultra. Seu chip de I/O utiliza o processo N5B (5nm aprimorado), otimizando ainda mais a eficiência de transferência de dados.
Acompanhando a GPU Rubin, a CPU Vera representa uma reformulação completa da CPU Grace, construída em um núcleo ARM Olympus personalizado com 88 núcleos e 176 threads. Esta é uma melhoria significativa em relação ao Grace, que tinha 72 núcleos e 144 threads. A largura de banda de memória da Vera de 1,8 TB/s é 2,4 vezes a do Grace, e sua capacidade de memória foi aumentada em 4,2 vezes, o que melhora significativamente as capacidades de processamento de dados. A Vera se conecta perfeitamente às GPUs Rubin através da interconexão de alta velocidade NVLink-C2C, com uma largura de banda de 1,8 TB/s para permitir uma comunicação eficiente entre chips. Seu desempenho é essencialmente o dobro do Grace, tornando-o excepcionalmente adequado para inferência de IA, pré-processamento de dados e tarefas multithread. A NVIDIA otimizou o conjunto de instruções ARM e a microarquitetura para tornar a Vera ideal para as necessidades de backend de cargas de trabalho de IA.
Desde o anúncio da arquitetura Rubin na Computex 2024, a NVIDIA tem progredido incessantemente em seu roteiro de produtos. Espera-se que o Rubin R100 entre em produção em volume no quarto trimestre de 2025, com os sistemas DGX e HGX relacionados sendo lançados no primeiro semestre de 2026. No segundo semestre de 2026, a NVIDIA planeja revelar a plataforma Vera Rubin NVL144, que integrará 144 GPUs Rubin e numerosas CPUs Vera em um rack Oberon refrigerado a líquido que consome 600 kW de energia. Essa configuração fornecerá 3,6 exaFLOPS de desempenho de inferência do FP4 e 1,2 exaFLOPS de desempenho de treinamento do FP8, o que equivale a uma melhoria de 3,3 vezes em relação ao Blackwell GB300 NVL72. Até 2027, a plataforma Rubin Ultra NVL576 vai hospedar 576 GPUs Rubin Ultra, incluindo 16 pilhas HBM4e e até 1 TB de memória. Esta plataforma é projetada para oferecer 15 exaFLOPS de desempenho de inferência FP4 e 5 exaFLOPS de desempenho de treinamento FP8, representando uma melhoria de 14 vezes em relação ao GB300. Ela também incorporará a interconexão NVLink 7 e a NIC ConnectX-9 (1,6 Tbps), que coletivamente amplificam a escalabilidade do sistema.
Para garantir o rápido lançamento do Rubin, a NVIDIA reforçou colaborações com parceiros chaves da cadeia de suprimentos, como a TSMC e a SK Hynix. A TSMC planeja aumentar a capacidade de embalagem CoWoS para 80.000 wafers por mês até o quarto trimestre de 2025 para atender às demandas da Rubin e do SoC M5 da Apple. A SK Hynix iniciou o fluxo de HBM4 em outubro de 2024, entregando amostras de HBM4 de 12 camadas para a NVIDIA, com a produção em volume no horizonte em 2025. As amostras iniciais de produção piloto de GPUs Rubin e CPUs Vera foram concluídas em junho de 2025 na TSMC, com a amostragem de produção começando em setembro e a produção em massa programada para o início de 2026.
A crescente demanda de energia dentro dos data centers tem foco na eficiência energética no design. O Rubin R100 conserva energia através do processo de 3nm e da memória HBM4, enquanto otimiza a gestão térmica usando a tecnologia de resfriamento líquido e racks de alta densidade. Embora a plataforma Vera Rubin NVL144 possa consumir até 600 kW, sua densidade de computação e desempenho oferecem saídas superiores por unidade de potência em comparação com modelos anteriores. A análise de mercado prevê que o mercado global de data centers de IA crescerá para US$ 200 bilhões até 2025, com as tecnologias Blackwell e Rubin da NVIDIA prontas para liderar. Grandes empresas de tecnologia como Microsoft, Google e Amazon já reservaram os chips Blackwell até o final de 2025, e a introdução antecipada do Rubin consolidará ainda mais o domínio de mercado da NVIDIA.
Olhando para o futuro, a NVIDIA planeja revelar a arquitetura Feynman em 2028, perpetuando sua tradição de nomear chips em homenagem a cientistas renomados. A implantação bem-sucedida de Rubin e Vera reforçará aplicações emergentes como inferência de IA, treinamento e IA agente, guiando a tecnologia de IA para uma estrutura mais ampla. Com entregas de amostras agendadas para setembro de 2025 e implantações de produção até 2026, a NVIDIA está posicionada para manter sua liderança no mercado global de IA, impulsionando a evolução de data centers e aplicativos de IA.