Czy możemy uruchomić lokalnie model z 1T parametrów, taki jak Kimi K2.5? 👀 Tak, możemy! Oto on: - działa z prędkością 20 toks/s na @exolabs z Apple MLX na moich dwóch Mac Studio M3 Ultra 512GB używając ~630GB RAM - @opencode użyto do stworzenia gry w węża z automatycznym odtwarzaniem - Możesz zobaczyć, jak model tworzy grę, a następnie automatycznie otwiera końcowe wyniki w ChromeDevTools MCP, aby sprawdzić rezultat. Lokalna AI osiągnęła niesamowite poziomy! 🚀