$MU (Micron) har lanserat en 256 GB minnesmodul designad för AI-datacenter, som kan ge snabbare svarstider för stora språkmodeller (LLM) samtidigt som den är betydligt mer energieffektiv än traditionellt minne. När AI går från träning till inferens, blir CPU-minnet en ny prestandaflaskhals.