🚨 Sluta gissa vilken AI-modell din dator faktiskt kan köra. Detta verktyg skannar din hårdvara och berättar exakt vilka LLM:er som fungerar. Ett kommando. Det kallas llmfit. 497-modeller. 133 vårdgivare. Den kontrollerar ditt RAM, CPU och GPU, och rangordnar sedan varje modell efter vad som passar. Ingen mer nedladdning av en 70B-modell bara för att se den krascha. Så här gör den: → Känner av exakt din hårdvara (NVIDIA, AMD, Intel Arc, Apple Silicon) → Väljer den kvantisering som passar ditt minne bäst → Betygsätter varje modell på kvalitet, hastighet, passform och kontextlängd → Hanterar multi-GPU-installationer och MoE-arkitekturer automatiskt → Ansluter till Ollama så att du kan ladda ner den bästa matchen direkt Här är den vildaste delen: Mixtral 8x7B har totalt 46,7B parametrar. De flesta verktyg tror att du behöver 24 GB VRAM. Men endast 12,9 miljarder parametrar är aktiva per token. LLMfit vet detta. Det verkliga kravet är ~6,6 GB. Den enda funktionen låser upp modeller som folk trodde att de inte kunde köra. brygginstallation llmfit 6,5K GitHub-stjärnor. Byggd i rost. MIT-licens. 100 % öppen källkod.