🚨 Stop met raden welke AI-modellen jouw computer daadwerkelijk kan draaien. Deze tool scant je hardware en vertelt je precies welke LLM's zullen werken. Eén commando. Het heet llmfit. 497 modellen. 133 aanbieders. Het controleert je RAM, CPU en GPU, en rangschikt elk model op basis van wat past. Geen gedoe meer met het downloaden van een 70B-model alleen maar om te zien dat het crasht. Dit is wat het doet: → Detecteert je exacte hardware (NVIDIA, AMD, Intel Arc, Apple Silicon) → Kiest de beste kwantisatie die bij je geheugen past → Beoordeelt elk model op kwaliteit, snelheid, geschiktheid en contextlengte → Behandelt automatisch multi-GPU-opstellingen en MoE-architecturen → Verbindt met Ollama zodat je de beste match direct kunt downloaden Dit is het meest bizarre deel: Mixtral 8x7B heeft 46.7B totale parameters. De meeste tools denken dat je 24GB VRAM nodig hebt. Maar slechts 12.9B parameters zijn actief per token. llmfit weet dit. Het beoordeelt de werkelijke vereiste op ~6.6GB. Die ene functie alleen al ontgrendelt modellen waarvan mensen dachten dat ze ze niet konden draaien. brew install llmfit 6.5K GitHub-sterren. Gebouwd in Rust. MIT-licentie. 100% Open Source.