🚨Niemand is klaar voor dit paper. Elke LLM die je gebruikt GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen heeft een tekortkoming die geen enkele hoeveelheid schaling heeft opgelost. Ze kunnen oude informatie niet van nieuwe informatie onderscheiden. De bloeddruk van een patiënt: 120 bij triage. 128 tien minuten later. 125 bij ontslag. "Wat is de laatste meting?" Elke mens: "125, uiteraard." Elke LLM, zodra er genoeg updates zich opstapelen: fout. Niet soms fout. 100% fout. Geen nauwkeurigheid. Volledige hallucinatie. Elk model. Geen uitzonderingen. Het antwoord staat aan het einde van de invoer. Net voor de vraag. Geen zoekopdracht nodig. Het model kan gewoon de oude waarden niet loslaten. 35 modellen getest door onderzoekers van UVA en NYU. Alle 35 volgen exact dezelfde wiskundige doodscurve. De nauwkeurigheid daalt log-lineair naar nul naarmate verouderde informatie zich ophoopt. Geen plateau. Geen herstel. Gewoon een rechte lijn naar totale mislukking. Ze hebben een concept uit de cognitieve psychologie geleend dat proactieve interferentie wordt genoemd, oude herinneringen blokkeren de herinnering aan nieuwe. Bij mensen plateauert dit effect. Onze hersenen leren het lawaai te onderdrukken en zich te concentreren op wat actueel is. LLM's plateau nooit. Ze dalen totdat ze volledig falen. De onderzoekers hebben alles geprobeerd: "Vergeet de oude waarden" - nauwelijks effect Chain-of-thought - dezelfde ineenstorting...