Últimamente he estado usando mucho Claude Code y, mientras lo hago, he estado observando de forma casual cómo evoluciona la base de código de OpenClaw. Lo que he presenciado refleja un patrón que he visto repetirse en todos los frameworks de agentes anteriores — y merece la pena hablar de ello. OpenClaw es un proyecto extraordinario. Pasó de cero a uno de los repositorios con más estrellas en GitHub en menos de una semana. Y ahora, con agentes de IA contribuyendo activamente a su propio desarrollo, la base de código está haciendo algo extraordinario: se está expandiendo a un ritmo que ningún equipo humano podría igualar — ni supervisar de forma significativa. Hace un mes, el repositorio tenía alrededor de 400.000 líneas de código. Ahora se acerca al millón. Los compromisos diarios se mantienen estables por encima de 500. Incluso existe un fork lean — nanobot — que replica la funcionalidad principal en unas 4.000 líneas, anunciándose como "99% más pequeño". Ese contraste por sí solo te dice algo importante sobre lo que está ocurriendo con el original. Desde el punto de vista de la ingeniería de software, esto no es un signo de salud. La velocidad sin comprensibilidad es simplemente entropía con buena PR. Lo que estamos presenciando es una base de código que ha cruzado un umbral: ya no es humanamente sostenible. Ningún ingeniero puede revisar estos commits de forma significativa. Ningún arquitecto puede mantener el modelo del sistema en su cabeza. La deuda técnica no se acumula, sino que se acumula, a velocidad de IA, cada día. Esto plantea una pregunta en la que no puedo dejar de pensar: ¿Existe algún proyecto en el mundo que pueda crecer de forma sostenible — manteniendo la claridad arquitectónica mientras expande continuamente su funcionalidad — sin una participación humana significativa? ¿No "la IA ayuda a los humanos", sino una gestión autónoma genuina de una base de código viva? Si eso es posible, ¿qué tipo de proyectos aún no pueden mantenerse completamente por IA hoy en día? ¿Es por la complexidad? ¿Ambigüedad en los requisitos? ¿La necesidad de gusto y contención? Y la pregunta más profunda: ¿llegaremos eventualmente a un punto en el que todos los proyectos de software puedan ser completamente mantenidos por la IA — incluidos los sistemas de IA que hacen el mantenimiento? Mi instinto es este: la IA es extraordinariamente buena optimizando localmente. Escribe esta función. Arregla este error. Añade esta función. Pero "mantener un sistema simple" no es un problema local. Requiere un juicio estético global — la capacidad de decir "podríamos añadir esto, pero no deberíamos." Ese tipo de contención podría ser la última contribución genuinamente humana a la ingeniería de software. O quizá me equivoque. Quizá los futuros sistemas de IA desarrollen algo parecido al gusto. Quizá aprendan que el código más importante suele ser el que no escribes. De verdad que no lo sé. Pero ver cómo una base de código crece de 400k a 1 millón de líneas en un solo mes, impulsada casi enteramente por agentes, me hace sentir que estamos a punto de descubrirlo — estaremos preparados o no.