cómo funcionan realmente los agentes de IA. piensa en una conversación como un array de objetos: sistema → usuario → asistente → usuario → asistente… el aviso del sistema define el rol. ejemplo: “eres un agente de codificación que resuelve problemas de programación.” entonces el usuario pregunta algo. el llm recibe toda la conversación como contexto y comienza a generar los siguientes tokens. (¿qué son los tokens? pequeñas piezas de texto. un token puede ser una palabra completa, parte de ella, espacios en blanco, etc) pero hay otra pieza: herramientas. las herramientas son solo funciones que el llm puede llamar. por ejemplo: • read_file(path) • edit_file(path, content) • search_web(query) • bash(command) estas se pasan al modelo como parte del contexto. así que en lugar de solo devolver texto, el llm puede devolver llamadas a herramientas. ejemplo:...