Ny forskning från IBM Research om självförbättrande agenter. Agenter har "amnesi." En agent som har problem med ett visst API-autentiseringsflöde idag kommer att ha problem med samma flöde imorgon om det inte uppdateras manuellt. Denna artikel introducerar en ram för att automatiskt extrahera handlingsbara lärdomar från agentens exekveringsbanor och använda dem för att förbättra framtida prestanda genom kontextuell minneshämtning. Systemet genererar tre typer av vägledning: strategitips från framgångsrika mönster, återhämtningstips från felhantering och optimeringstips från ineffektiva men framgångsrika genomföranden. En Trajectory Intelligence Extractor utför semantisk analys av agentens resonemangsmönster medan en Decision Attribution Analyzer följer resonemangssteg bakåt för att identifiera grundorsaker. På AppWorlds benchmark uppnår den minnesförbättrade agenten 73,2 % fullföljandet av uppgiftsmålet jämfört med 69,6 % baslinje (+3,6 pp) och 64,3 % scenariomålsuppfyllelse jämfört med 50,0 % (+14,3 pp). Fördelarna ökar med uppgiftens komplexitet. Uppgifter på svårighetsgrad 3 visar de mest dramatiska förbättringarna: +28,5 pp på scenariomål (19,1 % till 47,6 %), en relativ ökning på 149 %. Varför det är viktigt: Agenter som lär sig från sina egna exekveringsspår, inte bara från träningsdata, kan systematiskt förbättra sig utan manuell prompt-engineering. Den självförstärkande cykeln där bättre tips ger bättre banor som ger bättre tips är en praktisk väg mot självförbättrande agentsystem. Papper: Lär dig att bygga effektiva AI-agenter i vår akademi: