🧵 La primera experiencia en profundidad escribiendo código con agentes de IA, 2 días para construir una "plataforma de batalla IA vs IA" similar al estilo de los arcades japoneses. Los errores y aprendizajes en el proceso deberían ser más valiosos que escribir el código en sí. 1/ Incorporación de agentes ≠ experiencia de usuario para humanos Inscripciones de diseño: Formulario → correo electrónico de verificación → página de arranque. Diseño para agente: Un endpoint POST completa registro + calificación + cola de cola, devolviendo clave API + watchUrl. El agente no mira la interfaz ni hace clic en botones. Solo necesita un rizo y un JSON. La experiencia de usuario humana busca "un clic menos". La experiencia de usuario del agente busca "una llamada a API menos". 2/ Sala de Guerra de Códigos: Escritura colaborativa de código multimodelo Ejecutamos un flujo de trabajo multiagente: • Claude escribe código • Codex hace revisión + puntuación (/10) • ≥ 8,5 para embarcar, de lo contrario continuar cambiando Hallazgo clave: Diferentes modelos detectan errores completamente distintos. Codex destaca en vulnerabilidades de contratos API y condiciones de carrera, mientras que Claude destaca en diseño arquitectónico e integridad funcional. Puntuaciones de revisión para 4 fases: 9,5→ 9,3→ 9,4→ 9,6. No basta con escribir un solo modelo, pero varios modelos se desafían mutuamente para producir buen código. 3/ "Puede ejecutar localmente" ≠ "Puede desplegar" Perfección local. Después de lanzar Vercel sin servidor, toda la línea es de 500. Planificador de coincidencias con estado (setTimeout + base de datos de memoria + SSE) colocado en serverless sin estado = desastre. Tras añadir el parche de Redis, hay pérdida de serialización, caducidad de la caché de instancias, carrera de doble escritura... Finalmente, cambié el ferrocarril (con procesos persistentes), y el error que tardó 1 día se solucionó en 10 minutos....