Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Cercetări noi de la IBM Research on Self-Improving Agents.
Agenții au "amnezie".
Un agent care are dificultăți cu un anumit flux de autentificare API astăzi va avea dificultăți cu același flux mâine, cu excepția cazului în care este actualizat manual.
Această lucrare introduce un cadru pentru extragerea automată a învățăturilor acționabile din traiectoriile de execuție ale agenților și utilizarea lor pentru a îmbunătăți performanța viitoare prin recuperarea contextuală a memoriei.
Sistemul generează trei tipuri de ghiduri: sfaturi de strategie pornind de la tipare de succes, sfaturi de recuperare din gestionarea eșecului și sfaturi de optimizare din execuții ineficiente, dar reușite. Un Extractor de Inteligență a Traiectoriei efectuează analize semantice ale tiparelor de raționament ale agenților, în timp ce un Analizor de Atribuire a Deciziilor urmărește înapoi prin pași de raționament pentru a identifica cauzele rădăcină.
Pe benchmark-ul AppWorld, agentul îmbunătățit cu memorie atinge 73,2% îndeplinirea obiectivelor sarcinii, comparativ cu 69,6% la nivel de bază (+3,6 pp) și 64,3% la finalizarea obiectivelor de scenariu, comparativ cu 50,0% (+14,3 pp). Beneficiile scalează odată cu complexitatea sarcinilor. Sarcinile de dificultate 3 prezintă cele mai dramatice îmbunătățiri: +28,5 puncte pe obiectivele scenariului (19,1% față de 47,6%), o creștere relativă de 149%.
De ce contează:
Agenții care învață din propriile urme de execuție, nu doar din datele de antrenament, pot îmbunătăți sistematic fără inginerie manuală a prompturilor.
Ciclul auto-întărit al vârfurilor mai bune care produc traiectorii mai bune care produc vârfuri mai bune este o cale practică către sisteme agenți care se auto-îmbunătățesc.
Hârtie:
Învață să construiești agenți AI eficienți în academia noastră:

Limită superioară
Clasament
Favorite
