Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
> média de 385ms de seleção de ferramentas.
> 67 ferramentas distribuídas em 13 servidores MCP.
> 14,5GB de memória.
> Zero chamadas na rede.
O LocalCowork é um agente de IA que roda em um MacBook. Código aberto.
🧵

Montar um agente de IA local parece ótimo até você tentar usar um o dia todo. A parte difícil não é fazer um modelo te entender. É fazer com que escolha a ferramenta certa e faça isso rápido o suficiente para que a experiência pareça interativa.
Então colocamos o LFM2-24B-A2B à prova em laptops, construindo um agente de desktop open-source chamado LocalCowork.
Tudo roda localmente:
> modelo
> as ferramentas
> os dados
Sem nuvem. Sem chaves de API. Nada sai da máquina.
Avaliamos o modelo em uma configuração realista:
> 67 ferramentas
> 13 servidores MCP
Tarefas como varreduras de segurança, processamento de documentos, operações do sistema de arquivos e utilitários do sistema. Tudo rodando em um único laptop Apple M4 Max com 36GB de memória.
Nessa configuração, o LFM2-24B-A2B teve uma média de ~385 ms por resposta de seleção de ferramenta, enquanto acomodava ~14,5 GB de memória.
Isso significa:
> chamadas de API de saída
> sem subprocessadores de fornecedores
> nenhum dado saindo do dispositivo

39
Melhores
Classificação
Favoritos
