🚨Kimse bu gazeteye hazır değil. Kullandığınız her LLM, GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen gibi her LLM'de hiçbir ölçeklendirmenin düzeltemediği bir kusur var. Eski bilgiyi yeni bilgiden ayırt edemezler. Bir hastanın tansiyonu: Triage'da 120. 128 on dakika sonra. Tahliye sırasında 125. "Son okuma nedir?" Herhangi bir insan: "125, tabii ki." Her LLM, yeterince güncelleme biriktiğinde: yanlış. Bazen yanlış değil. %100 yanlış. Sıfır doğruluk. Tam bir halüsinasyon. Her model. İstisna yok. Cevap girdinin en sonunda yer alıyor. Sorudan hemen önce. Arama gerekmiyor. Model eski değerlerden vazgeçemiyor. UVA ve NYU araştırmacıları tarafından test edilen 35 model. Hepsi 35 kişi tam olarak aynı matematiksel ölüm eğrisini takip eder. Doğruluk, eski bilgiler biriktikçe log-lineer olarak sıfıra düşer. Plato yok. Hiçbir iyileşme yok. Tam başarısızlığa doğru bir çizgi. Bilişsel psikolojiden proaktif müdahale olan eski anıların yenilerini hatırlamayı engelleme adlı bir kavramı ödünç aldılar. İnsanlarda bu etki sabit kalır. Beynimiz gürültüyü bastırmayı ve akıma odaklanmayı öğrenir. LLM'ler asla dağılmaz. Tamamen kırılana kadar azalırlar. Araştırmacılar her şeyi denedi: "Eski değerleri unut" - iğneyi zar zor hareket ettirdi Düşünce zinciri- aynı çöküş...