Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Нове дослідження від IBM Research on Self-Improved Agents.
Агенти мають «амнезію».
Агент, який сьогодні має труднощі з певним потоком автентифікації API, завтра зіткнеться з тим самим потоком без ручного оновлення.
У цій статті представлено фреймворк для автоматичного вилучення дієвих знань із траєкторій виконання агентів і їх використання для покращення майбутньої продуктивності через контекстуальне відновлення пам'яті.
Система генерує три типи рекомендацій: поради щодо стратегії на основі успішних шаблонів, поради з відновлення з вирішення помилок і поради з оптимізації з неефективних, але успішних виконань. Екстрактор інтелекту траєкторії виконує семантичний аналіз патернів мислення агентів, тоді як аналізатор атрибуції рішень простежує назад через кроки міркування, щоб визначити корінні причини.
У бенчмарку AppWorld агент з розширеною пам'яттю досягає 73,2% виконання цілей порівняно з 69,6% базового рівня (+3,6 pp) та 64,3% виконання сценаріїв порівняно з 50,0% (+14,3 pp). Переваги масштабуються залежно від складності завдання. Завдання складності 3 демонструють найпомітніші покращення: +28,5 pp за сценарними цілями (19,1% проти 47,6%), відносне зростання на 149%.
Чому це важливо:
Агенти, які навчаються на власних трасах виконання, а не лише на навчальних даних, можуть систематично вдосконалюватися без ручного інжинирингу запитів.
Самопідсилювальний цикл кращих кінчиків, які дають кращі траєкторії, дають кращі кінчики, є практичним шляхом до самовдосконалюваних агентних систем.
Стаття:
Навчіться створювати ефективних агентів ШІ в нашій академії:

Найкращі
Рейтинг
Вибране
