$MU (Micron) lançou um módulo de memória de 256GB projetado para data centers de IA, que pode fornecer tempos de resposta mais rápidos para grandes modelos de linguagem (LLMs), sendo significativamente mais eficiente energeticamente do que a memória tradicional. À medida que a IA passa do treinamento para a inferência, a memória da CPU está se tornando um novo gargalo de desempenho.