Uusi tutkimus IBM Researchilta itseään parantavista agenteista. Agenteilla on "muistinmenetys." Agentti, joka kamppailee tietyn API-tunnistautumisprosessin kanssa tänään, kamppailee saman prosessin kanssa huomenna, ellei sitä päivitetä manuaalisesti. Tässä artikkelissa esitellään viitekehys, jolla voidaan automaattisesti poimia toiminnallisia oppeja agenttien suorituspoluista ja käyttää niitä tulevan suorituskyvyn parantamiseen kontekstuaalisen muistin haun avulla. Järjestelmä tuottaa kolmenlaisia ohjeita: strategiavinkkejä onnistuneista malleista, palautusvinkkejä vikaantumisen käsittelystä ja optimointivinkkejä tehottomista mutta onnistuneista toteutuksista. Trajectory Intelligence Extractor suorittaa semanttista analyysiä agenttien päättelymalleista, kun taas Decision Attribution Analyzer seuraa päättelyvaiheita taaksepäin tunnistaakseen juurisyitä. AppWorld-vertailussa muistilla paranneltu agentti saavuttaa 73,2 % tehtävien tavoitteiden suorittamisesta verrattuna 69,6 %:iin (+3,6 pp) ja 64,3 %:iin skenaariotavoitteiden suoritukseen verrattuna 50,0 %:iin (+14,3 pp). Hyödyt skaalautuvat tehtävän monimutkaisuuden mukaan. Vaikeustason 3 tehtävät osoittavat merkittävimmät parannukset: +28,5 pp skenaariotavoitteissa (19,1 % vs 47,6 %), suhteellinen kasvu 149 %. Miksi sillä on merkitystä: Agentit, jotka oppivat omista suoritusjäljistään, eivät pelkästään koulutusdatasta, voivat järjestelmällisesti parantaa ilman manuaalista kehotteiden suunnittelua. Itseään vahvistava sykli, jossa paremmat tipit tuottavat parempia kehityskulkuja ja parempia vihjeitä, on käytännöllinen polku kohti itseään parantavia agenttijärjestelmiä. Artikkeli: Opettele rakentamaan tehokkaita tekoälyagentteja akatemiassamme: