Nueva investigación de IBM Research sobre Agentes de Auto-Mejora. Los agentes tienen "amnesia." Un agente que lucha con un flujo de autenticación de API en particular hoy luchará con el mismo flujo mañana a menos que se actualice manualmente. Este documento introduce un marco para extraer automáticamente aprendizajes accionables de las trayectorias de ejecución de los agentes y utilizarlos para mejorar el rendimiento futuro a través de la recuperación de memoria contextual. El sistema genera tres tipos de orientación: consejos de estrategia de patrones exitosos, consejos de recuperación de manejo de fallos y consejos de optimización de ejecuciones ineficientes pero exitosas. Un Extractor de Inteligencia de Trayectorias realiza un análisis semántico de los patrones de razonamiento del agente, mientras que un Analizador de Atribución de Decisiones rastrea hacia atrás a través de los pasos de razonamiento para identificar las causas raíz. En el benchmark de AppWorld, el agente mejorado con memoria logra un 73.2% de finalización de objetivos de tarea en comparación con un 69.6% de línea base (+3.6 pp) y un 64.3% de finalización de objetivos de escenario en comparación con un 50.0% (+14.3 pp). Los beneficios escalan con la complejidad de la tarea. Las tareas de dificultad 3 muestran las mejoras más dramáticas: +28.5 pp en objetivos de escenario (del 19.1% al 47.6%), un aumento relativo del 149%. Por qué es importante: Los agentes que aprenden de sus propias trazas de ejecución, no solo de los datos de entrenamiento, pueden mejorar sistemáticamente sin ingeniería de prompts manual. El ciclo auto-reforzante de mejores consejos que producen mejores trayectorias que producen mejores consejos es un camino práctico hacia sistemas de agentes auto-mejoradores. Documento: Aprende a construir agentes de IA efectivos en nuestra academia: