Нове дослідження від IBM Research on Self-Improved Agents. Агенти мають «амнезію». Агент, який сьогодні має труднощі з певним потоком автентифікації API, завтра зіткнеться з тим самим потоком без ручного оновлення. У цій статті представлено фреймворк для автоматичного вилучення дієвих знань із траєкторій виконання агентів і їх використання для покращення майбутньої продуктивності через контекстуальне відновлення пам'яті. Система генерує три типи рекомендацій: поради щодо стратегії на основі успішних шаблонів, поради з відновлення з вирішення помилок і поради з оптимізації з неефективних, але успішних виконань. Екстрактор інтелекту траєкторії виконує семантичний аналіз патернів мислення агентів, тоді як аналізатор атрибуції рішень простежує назад через кроки міркування, щоб визначити корінні причини. У бенчмарку AppWorld агент з розширеною пам'яттю досягає 73,2% виконання цілей порівняно з 69,6% базового рівня (+3,6 pp) та 64,3% виконання сценаріїв порівняно з 50,0% (+14,3 pp). Переваги масштабуються залежно від складності завдання. Завдання складності 3 демонструють найпомітніші покращення: +28,5 pp за сценарними цілями (19,1% проти 47,6%), відносне зростання на 149%. Чому це важливо: Агенти, які навчаються на власних трасах виконання, а не лише на навчальних даних, можуть систематично вдосконалюватися без ручного інжинирингу запитів. Самопідсилювальний цикл кращих кінчиків, які дають кращі траєкторії, дають кращі кінчики, є практичним шляхом до самовдосконалюваних агентних систем. Стаття: Навчіться створювати ефективних агентів ШІ в нашій академії: