🚨 Deja de adivinar qué modelo de IA puede ejecutar realmente tu ordenador. Esta herramienta escanea tu hardware y te dice exactamente qué LLMs funcionan. Una orden. Se llama llmfit. Modelos 497. 133 proveedores. Comprueba tu RAM, CPU y GPU, y luego clasifica cada modelo según lo que encaje. No más descargar un modelo 70B solo para ver cómo se bloquea. Esto es lo que hace: → Detecta tu hardware exacto (NVIDIA, AMD, Intel Arc, Apple Silicon) → Elige la cuantización que mejor se adapte a tu memoria → Puntua a cada modelo en calidad, velocidad, ajuste y longitud del contexto → gestiona automáticamente configuraciones multi-GPU y arquitecturas MoE → se conecta a Ollama para que puedas descargar la mejor combinación al instante Aquí viene la parte más loca: El mixtral 8x7B tiene 46,7B parámetros totales. La mayoría de las herramientas piensan que necesitas 24GB de VRAM. Pero solo 12,9 mil millones de parámetros están activos por token. Si Ill lo sabe. Tiene un requisito real de ~6,6GB. Esa sola función desbloquea modelos que la gente pensaba que no podían ejecutar. Brew install LLMFIT 6.500 estrellas en GitHub. Oxidado integrado. Licencia del MIT. 100% de código abierto.