Nueva investigación de IBM Research on Self-Improving Agents. Los agentes tienen "amnesia". Un agente que hoy tenga problemas con un flujo de autenticación de API concreto tendrá problemas con el mismo flujo mañana, a menos que se actualice manualmente. Este artículo introduce un marco para extraer automáticamente aprendizajes accionables de las trayectorias de ejecución de agentes y utilizarlos para mejorar el rendimiento futuro mediante la recuperación contextual de memoria. El sistema genera tres tipos de guías: consejos de estrategia a partir de patrones exitosos, consejos de recuperación al manejar fallos y consejos de optimización a partir de ejecuciones ineficientes pero exitosas. Un Extractor de Inteligencia de Trayectoria realiza un análisis semántico de los patrones de razonamiento de agentes, mientras que un Analizador de Atribución de Decisiones traza hacia atrás a través de pasos de razonamiento para identificar las causas raíz. En el benchmark de AppWorld, el agente mejorado con memoria logra un 73,2% de cumplimiento de objetivos de tarea frente al 69,6% de referencia (+3,6 pp) y un 64,3% de cumplimiento de objetivos de escenario frente al 50,0% (+14,3 pp). Los beneficios escalan con la complejidad de la tarea. Las tareas de dificultad 3 muestran las mejoras más notables: +28,5 puntos por favor en los objetivos del escenario (19,1% frente a 47,6%), un aumento relativo del 149%. Por qué es importante: Los agentes que aprenden de sus propias trazas de ejecución, no solo de datos de entrenamiento, pueden mejorar sistemáticamente sin necesidad de la ingeniería manual de prompts. El ciclo auto-reforzante de mejores puntas que producen mejores trayectorias y mejores puntas es un camino práctico hacia sistemas agentes que se automejoran. Papel: Aprende a crear agentes de IA efectivos en nuestra academia: