🚨 Никто не готов к этой статье. Каждая LLM, которую вы используете: GPT-4.1, Claude, Gemini, DeepSeek, Llama-4, Grok, Qwen, имеет недостаток, который не исправил ни один масштаб. Они не могут отличить старую информацию от новой. Кровяное давление пациента: 120 при первичном осмотре. 128 через десять минут. 125 при выписке. "Какое последнее показание?" Любой человек: "125, очевидно." Каждая LLM, как только накопится достаточно обновлений: ошибается. Не иногда ошибается. 100% ошибается. Нулевая точность. Полная галлюцинация. Каждая модель. Без исключений. Ответ находится в самом конце ввода. Прямо перед вопросом. Поиск не нужен. Модель просто не может отпустить старые значения. 35 моделей протестировали исследователи из UVA и NYU. Все 35 следуют точно такой же математической кривой смерти. Точность логарифмически падает до нуля по мере накопления устаревшей информации. Нет плато. Нет восстановления. Просто прямая линия к полной неудаче. Они заимствовали концепцию из когнитивной психологии, называемую проактивным вмешательством: старые воспоминания блокируют воспоминания о новых. У людей этот эффект достигает плато. Наши мозги учатся подавлять шум и сосредотачиваться на том, что актуально. LLM никогда не достигают плато. Они падают, пока не сломаются полностью. Исследователи пробовали все: "Забудьте старые значения" - едва сдвинуло ситуацию Цепочка размышлений - тот же коллапс...