Com o rápido avanço da tecnologia de inteligência artificial (IA), a memória de alta largura de banda (HBM) emergiu como uma base técnica essencial para os chips de IA. Este aumento de importância levou a um cenário em que a memória HBM está atualmente enfrentando um excesso significativo de demanda.
Como consequência, gigantes da indústria como SK Hynix, Samsung e Micron estão expandindo vigorosamente suas capacidades de produção de HBM para enfrentar esse desafio.
A tecnologia HBM tornou-se indispensável no design de chips de IA devido às suas capacidades de transferência de dados em alta velocidade. Cada geração, desde o HBM1 até a mais recente HBM3E, apresentou melhorias substanciais em camadas empilhadas, velocidades de transferência e capacidades de armazenamento.
A crescente demanda por chips de IA da NVIDIA, particularmente seu chip H200 com memória HBM3E, intensificou ainda mais o robusto mercado de HBM.
Relatórios indicam que os três principais fornecedores - SK Hynix, Samsung e Micron - utilizaram completamente suas capacidades de fornecimento de HBM para este ano, e a maior parte da capacidade do próximo ano já foi reservada. Em resposta à crescente demanda do mercado, essas empresas estão competindo ferozmente para expandir suas capacidades de produção.
A SK Hynix pretende aumentar significativamente sua capacidade de DRAM 1b de quinta geração para atender à crescente demanda por HBM e DRAM DDR5. A Samsung anunciou em março deste ano seus planos para aumentar substancialmente sua capacidade de HBM. Simultaneamente, a Micron está estabelecendo uma linha de teste avançada de HBM nos EUA e está considerando a produção de HBM na Malásia.
Neste cenário competitivo, a SK Hynix tornou-se um dos principais fornecedores da NVIDIA devido ao desempenho superior de seus produtos HBM3. A Samsung, por outro lado, está focada nas encomendas de clientes de nuvem, enquanto a Micron está deixando de lado o HBM3 para se concentrar no desenvolvimento e produção de produtos HBM3E.