> média de 385ms de seleção de ferramentas. > 67 ferramentas distribuídas em 13 servidores MCP. > 14,5GB de memória. > Zero chamadas na rede. O LocalCowork é um agente de IA que roda em um MacBook. Código aberto. 🧵
Montar um agente de IA local parece ótimo até você tentar usar um o dia todo. A parte difícil não é fazer um modelo te entender. É fazer com que escolha a ferramenta certa e faça isso rápido o suficiente para que a experiência pareça interativa. Então colocamos o LFM2-24B-A2B à prova em laptops, construindo um agente de desktop open-source chamado LocalCowork.
Tudo roda localmente: > modelo > as ferramentas > os dados Sem nuvem. Sem chaves de API. Nada sai da máquina.
Avaliamos o modelo em uma configuração realista: > 67 ferramentas > 13 servidores MCP Tarefas como varreduras de segurança, processamento de documentos, operações do sistema de arquivos e utilitários do sistema. Tudo rodando em um único laptop Apple M4 Max com 36GB de memória. Nessa configuração, o LFM2-24B-A2B teve uma média de ~385 ms por resposta de seleção de ferramenta, enquanto acomodava ~14,5 GB de memória. Isso significa: > chamadas de API de saída > sem subprocessadores de fornecedores > nenhum dado saindo do dispositivo
39