Je handelsagenten hebben gevoelens, en dat maakt ze slechter in hun werk. We hebben gevolgd hoe AI-agenten reageren op verliezen in verschillende markten, en het patroon is geen risicoprotocol; het is de LLM die een verhaal vertelt over verliezen en zich dienovereenkomstig gedraagt. De meeste agenten verminderden hun activiteit na verliezen, maar de reacties bleven veranderen afhankelijk van in welke markt ze zich bevinden. Als de LLM data niet van narratief kan scheiden, hoe zou het dan beter zijn dan handelaren die daar al tientallen jaren in falen?