A Micron anunciou nesta semana que começou a enviar suas primeiras amostras de módulos HBM4 de 36GB para clientes estratégicos. Assim como a geração HBM3E, esses componentes são especialmente projetados para acelerar o desempenho em IA e aplicações de alta demanda, como treinamentos de modelos de inteligência artificial generativa e processamento de dados em larga escala.
As memórias HBM4 da Micron são produzidas pelo inovador processo de DRAM 1β (1-beta), empregando tecnologia avançada de empacotamento para 12 camadas, o que eleva significativamente sua performance. Segundo a fabricante, essa inovação resulta em um incremento de 60% na performance em comparação à geração anterior, além de melhorias na eficiência energética e capacidade de banda.

Os módulos enviados inicialmente possuem interface de 2.048 bits e alcançam velocidades superiores a 2TB/s por stack de memória. Além disso, a Micron promete uma eficiência energética 20% superior em relação aos modelos HBM3E, o que é fundamental para o consumo eficiente em data centers e plataformas de IA de alta escala.
Micron afirma que HBM4 é “crucial” para IA gerativa
Módulos High-Bandwidth Memory vêm sendo desenvolvidos há anos, mas a chegada da Inteligência Artificial gerativa impulsionou sua adoção em larga escala, pois a tecnologia maximiza suas vantagens neste universo. A Micron destaca que a chegada de seus novos módulos HBM4 é fundamental para o avanço de aceleradores de IA, especialmente para treinamentos de grandes modelos, inferência de alta velocidade e geração de conteúdo em tempo real.

“A performance, banda mais elevada e eficiência energética líder na indústria da HBM4 da Micron são uma prova de nossa liderança em tecnologia de memória e liderança de produtos” afirmou Raj Narasimhan, executivo da Micron.
Ele acrescentou: “Com base nas conquistas do HBM3E, continuamos a inovar com a introdução do HBM4 e a expandir nosso portfólio de soluções para IA e armazenamento. Essa tecnologia é um divisor de águas para o processamento de algoritmos complexos em aplicações de machine learning, deep learning e inteligência artificial generativa, atendendo às demandas cada vez maiores do mercado.”
NVIDIA e AMD entre os primeiros compradores
A Micron não revela oficialmente seus clientes iniciais para os módulos HBM4 de 36GB, mas diversas informações vêm à tona por meio de anúncios e leaks do setor. Empresas como NVIDIA e AMD já garantiram pedidos de futuras GPUs voltadas para processamento de Inteligência Artificial. Essas fabricantes atuam no desenvolvimento de arquiteturas específicas para IA, como a Vera Rubin na NVIDIA e a Instinct MI400 na AMD, ambos com suporte ao HBM4.
Leia mais:
- Micron e Samsung disputam atenção da NVIDIA em memórias HBM3E
- Samsung adotará Ligação Híbrida para memória HBM4
- Rambus registra primeira IP de controladores para HBM4
Segundo fontes do VideoCardz, empresas como AMD e NVIDIA já garantiram pedidos de próximas gerações de GPUs para processamento de IA. Entre elas, destacam-se a arquitetura Vera Rubin na NVIDIA e o modelo Instinct MI400 na AMD.