Ny forskning fra IBM Research om selvforbedrende agenter. Agenter har «amnesi». En agent som sliter med en bestemt API-autentiseringsflyt i dag, vil slite med samme flyt i morgen med mindre den oppdateres manuelt. Denne artikkelen introduserer et rammeverk for automatisk å hente ut handlingsrettede læringer fra agentens utførelsesbaner og bruke dem til å forbedre fremtidig ytelse gjennom kontekstuell minnehenting. Systemet genererer tre typer veiledning: strategitips fra vellykkede mønstre, gjenopprettingstips fra feilhåndtering, og optimaliseringstips fra ineffektive, men vellykkede utførelser. En Trajectory Intelligence Extractor utfører semantisk analyse av agentens resonnementsmønstre, mens en Decision Attribution Analyzer sporer bakover gjennom resonnementstrinn for å identifisere rotårsaker. På AppWorld-benchmarken oppnår den minneforsterkede agenten 73,2 % fullføring av oppgavemål sammenlignet med 69,6 % baseline (+3,6 pp) og 64,3 % fullføring av scenariomål sammenlignet med 50,0 % (+14,3 pp). Fordelene skalerer med oppgavens kompleksitet. Vanskelighetsgrad 3-oppgaver viser de mest dramatiske forbedringene: +28,5 pp på scenariomål (19,1 % til 47,6 %), en relativ økning på 149 %. Hvorfor det er viktig: Agenter som lærer av sine egne kjøringsspor, ikke bare fra treningsdata, kan systematisk forbedre seg uten manuell prompt-engineering. Den selvforsterkende syklusen av bedre tips som gir bedre baner som gir bedre tips, er en praktisk vei mot selvforbedrende agentsystemer. Artikkel: Lær å bygge effektive AI-agenter i vår akademi: