Neue Forschung von IBM Research zu selbstverbessernden Agenten. Agenten haben "Amnesie." Ein Agent, der heute mit einem bestimmten API-Authentifizierungsfluss kämpft, wird morgen mit demselben Fluss kämpfen, es sei denn, er wird manuell aktualisiert. Dieses Papier stellt einen Rahmen vor, um automatisch umsetzbare Erkenntnisse aus den Ausführungsbahnen von Agenten zu extrahieren und diese zu nutzen, um die zukünftige Leistung durch kontextuelle Gedächtnisabrufe zu verbessern. Das System generiert drei Arten von Anleitungen: Strategietipps aus erfolgreichen Mustern, Wiederherstellungstipps aus dem Umgang mit Fehlern und Optimierungstipps aus ineffizienten, aber erfolgreichen Ausführungen. Ein Trajectory Intelligence Extractor führt eine semantische Analyse der Denkweisen der Agenten durch, während ein Decision Attribution Analyzer rückwärts durch die Denkprozesse verfolgt, um die Ursachen zu identifizieren. Im AppWorld-Benchmark erreicht der speichererweiterte Agent eine Zielerreichung von 73,2 % im Vergleich zu 69,6 % Basislinie (+3,6 pp) und 64,3 % Szenariozielerreichung im Vergleich zu 50,0 % (+14,3 pp). Die Vorteile skalieren mit der Komplexität der Aufgaben. Aufgaben der Schwierigkeit 3 zeigen die dramatischsten Verbesserungen: +28,5 pp bei den Szenariozielen (19,1 % auf 47,6 %), ein relativer Anstieg von 149 %. Warum es wichtig ist: Agenten, die aus ihren eigenen Ausführungsnachverfolgungen lernen, nicht nur aus Trainingsdaten, können systematisch ohne manuelles Prompt-Engineering verbessert werden. Der sich selbst verstärkende Zyklus von besseren Tipps, die bessere Bahnen erzeugen, die bessere Tipps erzeugen, ist ein praktischer Weg zu selbstverbessernden Agentensystemen. Papier: Lernen Sie, effektive KI-Agenten in unserer Akademie zu bauen: