A SK Hynix anunciou nesta semana mais um avanço em sua tecnologia de memórias HBM3E. Agora seus produtos alcançam até 16 camadas, com 3GB por camada, para um total de 48GB por stack. Isso significa que a fabricante agora pode ajudar na criação de aceleradores IA com até 384GB de capacidade, em configurações de 8 stacks.
O anúncio marca um passo à frente na corrida das três gigantes da memória, sendo que em setembro a companhia já começava a produção em massa de HBM3E em 12 camadas. A SK Hynix vai começar a oferecer amostras para testes de sua memória com 16 camadas no início do ano que vem.
Com a densidade de armazenamento oferecida pela nova geração HBM3E, a SK Hynix promete uma melhoria de até 18% em treinamento de máquina. Além disso, o ganho em performance para inferência pode chegar até 32%, segundo fabricante.
Apesar dos avanços prometidos pela empresa, há de se perguntar quanto tempo vai durar a procura pela nova versão do HBM3E. Espera-se, por exemplo, que a próxima geração de GPUs NVIDIA, atualmente conhecida como Rubin, use HBM4 em sua fabricação. A própria SK Hynix inclusive enfatizou que seu desenvolvimento da nova tecnologia segue a todo vapor.
Soluções de memória da SK Hynix vão além do HBM3E
A empresa sul-coreana de memória falou da nova versão de sua tecnologia para HBM3E em um evento próprio, o SK AI Summit 2024. Durante a apresentação, a companhia também ofereceu atualizações sobre seus avanços em outras soluções para servidores IA.
A SK Hynix ressaltou, por exemplo, que está trabalhando em SSDs QLC PCIe 6.0 de alta capacidade para servidores e data centers. Além disso, a companhia também avança no desenvolvimento de armazenamento UFS 5.0, para dispositivos móveis.
Mais sobre memórias HBM:
- SK Hynix inicia produção de memórias para NVIDIA Blackwell Ultra e AMD Instinct
- SK Hynix começa produção em massa de HBM3E de 12 camadas neste mês
- TSMC e Samsung se unem para produzir memórias HBM4
Por fim, a empresa também comentou sobre seus avanços em tecnologias PNM e PIM – respectivamente, Processing Near Memory e Processing In Memory. Como indicam os nomes, são soluções para processamento de parte dos dados diretamente na memória, sem o delay de ter que se comunicar com o processador.
Fonte: Tom’s Hardware