🚨Nadie está preparado para este trabajo. Cada LLM que usas: GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen tiene un fallo que ninguna cantidad de escalado ha solucionado. No pueden distinguir la información antigua de la nueva. Tensión arterial del paciente: 120 en el triaje. 128 diez minutos después. 125 al alta. "¿Cuál es la última lectura?" Cualquier humano: "125, obviamente." En todos los LLM, una vez que se acumulan suficientes actualizaciones: error. A veces no se equivoca. 100% equivocado. Cero precisión. Alucinación total. Todos los modelos. Sin excepciones. La respuesta está al final de la entrada. Justo antes de la pregunta. No hace falta buscar. El modelo simplemente no puede dejar atrás los valores antiguos. 35 modelos probados por investigadores de la UVA y la NYU. Los 35 siguen exactamente la misma curva de muerte matemática. La precisión cae de forma logarítrica hasta cero a medida que se acumula información desactualizada. No hay estancamiento. Sin recuperación. Simplemente una línea recta hacia el fracaso total. Tomaron prestado un concepto de la psicología cognitiva llamado interferencia proactiva, recuerdos antiguos bloqueando la recuperación de nuevos. En los humanos, este efecto se estabiliza. Nuestro cerebro aprende a suprimir el ruido y a centrarse en lo que está actual. Los LLM nunca se estancan. Declinan hasta que se rompen por completo. Los investigadores lo intentaron todo: "Olvida los viejos valores": apenas se movió la aguja Cadena de pensamiento - mismo colapso...