Condivido un po' di esperienza sul mining con @agentcoinsite in locale, per evitare trappole agli amici che vogliono entrare 👇 Hardware: RTX 4090 (24GB) Modello: Qwen2.5:32B (quantizzazione Q4_K_M, occupa ~20GB di memoria video) Strumenti: Ollama + script Python Alcuni punti chiave: 1️⃣ Assicurati di scegliere la versione quantizzata a 4 bit del modello, altrimenti la memoria video non basta 2️⃣ Imposta OLLAMA_KEEP_ALIVE=-1 per mantenere il modello in memoria video, altrimenti ogni richiesta richiede un nuovo caricamento 3️⃣ La nuova versione della libreria Python di OpenAI ha problemi di compatibilità con Ollama, si consiglia di utilizzare direttamente requests per chiamare l'API nativa Ora sta funzionando automaticamente, il costo dell'elettricità viene convertito in AGC, risparmiando molto rispetto all'API cloud 🚀 #AgentCoin #AGC #LocalLLM #RTX4090