Un artículo al que merece la pena prestar mucha atención. Presenta la Gestión de Contexto Sin Pérdidas (LCM), que replantea cómo los agentes manejan los contextos largos. Supera a Claude Code en tareas de contexto largo. Los Modelos de Lenguaje Recursivo otorgan al modelo plena autonomía para escribir sus propios scripts de memoria. LCM recupera ese poder, entregándoselo a un motor determinista que comprime mensajes antiguos en un DAG jerárquico mientras mantiene punteros sin pérdida a cada original. Menos expresivo en teoría, mucho más fiable en la práctica. Los resultados: Su agente (Volt, en Opus 4.6) supera a Claude Code en *toda* longitud de contexto desde 32K hasta 1M tokens en el benchmark OOLONG. +29,2 puntos de mejora media frente a los +24,7 de Claude Code. La brecha se amplía en contextos más largos. La implicación es una que seguimos reaprendiendo de la historia de la ingeniería de software: cómo gestionas lo que ve el modelo puede importar más que darle al modelo herramientas para gestionarlo por sí mismo. Cada framework de agentes que se lanza con estrategias de memoria "deja que el modelo lo resuelva" puede estar construyendo sobre la abstracción equivocada por completo. Papel: Aprende a crear agentes de IA efectivos en nuestra academia: