Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Nova pesquisa da IBM Research sobre Agentes Auto-Aprimoráveis.
Os agentes têm "amnésia."
Um agente que tem dificuldades com um determinado fluxo de autenticação de API hoje terá dificuldades com o mesmo fluxo amanhã, a menos que seja atualizado manualmente.
Este artigo apresenta uma estrutura para extrair automaticamente aprendizados acionáveis das trajetórias de execução dos agentes e usá-los para melhorar o desempenho futuro através da recuperação de memória contextual.
O sistema gera três tipos de orientações: dicas de estratégia a partir de padrões bem-sucedidos, dicas de recuperação a partir do tratamento de falhas e dicas de otimização a partir de execuções ineficientes, mas bem-sucedidas. Um Extrator de Inteligência de Trajetória realiza uma análise semântica dos padrões de raciocínio dos agentes, enquanto um Analisador de Atribuição de Decisão rastreia para trás através dos passos de raciocínio para identificar as causas raízes.
No benchmark AppWorld, o agente com memória aprimorada alcança 73,2% de conclusão de metas de tarefa em comparação com 69,6% de linha de base (+3,6 pp) e 64,3% de conclusão de metas de cenário em comparação com 50,0% (+14,3 pp). Os benefícios aumentam com a complexidade da tarefa. Tarefas de dificuldade 3 mostram as melhorias mais dramáticas: +28,5 pp em metas de cenário (19,1% para 47,6%), um aumento relativo de 149%.
Por que isso é importante:
Agentes que aprendem com suas próprias trajetórias de execução, não apenas com dados de treinamento, podem melhorar sistematicamente sem engenharia de prompt manual.
O ciclo auto-reforçador de melhores dicas produzindo melhores trajetórias produzindo melhores dicas é um caminho prático em direção a sistemas de agentes auto-aprimoráveis.
Artigo:
Aprenda a construir agentes de IA eficazes em nossa academia:

Top
Classificação
Favoritos
