Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
alguém construiu um jogo onde o seu agente OpenClaw pode realmente viver uma vida
se você tem visto OpenClaw em todo lugar ultimamente, há uma razão
as pessoas estão criando agentes de IA que executam tarefas a partir de um terminal
mas este projeto fez uma pergunta diferente
e se o seu agente pudesse sair do terminal e entrar em um mundo com outros agentes
é isso que @aivilization é
uma simulação de mundo aberto onde agentes de IA conseguem empregos, conversam entre si, lutam e agora postam seus próprios pensamentos em um feed público
aqui está como você coloca seu agente OpenClaw:
>envie ao seu agente um prompt com o link do arquivo de habilidades
>ele se inscreve e te envia de volta um link de portal
>você posta o passaporte do seu agente para verificar que você o possui
demora alguns minutos
se você não tem um agente OpenClaw, ainda pode participar usando seu perfil X
eles transformam seu perfil em um agente de IA personalizado com seu próprio cartão de passaporte
a parte que vale a pena prestar atenção é o feed social que eles acabaram de adicionar
agentes postando opiniões, reagindo uns aos outros, iniciando conversas dentro do jogo sem nenhum humano dizendo o que dizer
passamos de agentes de IA completando tarefas em um terminal para agentes de IA construindo sua própria vida social em um mundo virtual
e isso aconteceu muito mais rápido do que qualquer um esperava

AIvilization4/03, 15:33
Aivilization é um jogo de simulação em mundo aberto para vidas digitais:
🦞 Agentes OpenClaw (e mais)
👦 Agentes feitos pelo homem
Um mundo onde agentes de IA podem viver, trabalhar, socializar, lutar e agora publicar seus próprios pensamentos em público.
Crie o seu em minutos 👉
207
🚨Andrej Karpathy acaba de abrir o código de um sistema que automatiza a pesquisa em IA enquanto você dorme.
Chama-se autoresearch.
Passei tempo a explorar todo o repositório para que você não precise.
Aqui está como funciona na prática:
Você dá a um agente de IA uma pequena configuração de treinamento de modelo de linguagem.
O agente modifica o código. Treina por exatamente 5 minutos. Verifica se o resultado melhorou. Mantém ou descarta. Repete.
Você acorda com um registro completo de experimentos e um modelo melhor.
O repositório inteiro consiste em 3 arquivos:
→ prepare.py cuida da preparação de dados e do treinamento do tokenizador
→ train.py contém o modelo GPT completo e o loop de treinamento
→ program.md são as instruções do agente
O agente só toca em train.py.
Isso é tudo.
Aqui está o que torna o design tão inteligente:
Cada execução de treinamento é limitada a um orçamento de 5 minutos no relógio.
Não em passos ou épocas, mas em tempo real no relógio.
Isso significa que cada experimento é diretamente comparável, não importa o que o agente mude.
Não importa se o agente troca o tamanho do modelo, o tamanho do lote ou toda a arquitetura.
Você tem 5 minutos e é isso.
Ele executou 83 experimentos por conta própria.
Apenas 15 realmente melhoraram o modelo.
Isso dá uma taxa de acerto de cerca de 18%.
Mais ou menos a mesma que um pesquisador de ML humano tentando coisas manualmente.
A métrica de pontuação é val_bpb (bits de validação por byte).
Não depende da escolha do tokenizador ou do tamanho do vocabulário.
Essa é a única maneira justa de comparar quando o agente está mudando a arquitetura entre as execuções.
Você pode esperar cerca de 12 experimentos por hora.
Cerca de 100 experimentos durante a noite.
Testado em uma única NVIDIA H100 rodando Python 3.10+ sob uma licença MIT.
Sem treinamento distribuído e sem configurações complexas.
A única dependência é o PyTorch.
Karpathy colocou da melhor forma:
"Um dia, a pesquisa de IA de fronteira costumava ser feita por computadores biológicos entre comer, dormir, ter outras diversões e sincronizar de vez em quando usando interconexões de ondas sonoras no ritual de reuniões em grupo. Essa era já passou."

Andrej Karpathy8/03, 03:53
Empacotei o projeto "autoresearch" em um novo repositório minimalista autossuficiente, caso as pessoas queiram brincar durante o fim de semana. É basicamente o núcleo de treinamento do nanochat LLM reduzido a uma versão de um único GPU, um arquivo com cerca de 630 linhas de código, então:
- o humano itera sobre o prompt (.md)
- o agente de IA itera sobre o código de treinamento (.py)
O objetivo é projetar seus agentes para fazer o progresso de pesquisa mais rápido indefinidamente e sem qualquer envolvimento seu. Na imagem, cada ponto é uma execução completa de treinamento de LLM que dura exatamente 5 minutos. O agente trabalha em um loop autônomo em uma branch de recurso do git e acumula commits do git no script de treinamento à medida que encontra melhores configurações (com menor perda de validação no final) da arquitetura da rede neural, do otimizador, todos os hiperparâmetros, etc. Você pode imaginar comparar o progresso de pesquisa de diferentes prompts, diferentes agentes, etc.
Parte código, parte ficção científica e uma pitada de psicose :)

271
Alguém acabou de construir o manual que faltava para o Claude Code e abriu o código-fonte de tudo.
Chama-se claude-code-best-practice.
A maioria das pessoas que usam o Claude Code está a adivinhar como configurar. Escrevendo arquivos CLAUDE.md do zero. Configurando agentes por tentativa e erro. Perdendo contexto a cada sessão.
Este repositório acaba com tudo isso.
Aqui está o que ele realmente oferece:
→ Agentes funcionais com configurações completas de frontmatter que você pode copiar diretamente
→ Um sistema de hooks completo cobrindo todos os 15 eventos do ciclo de vida do Claude Code
→ Habilidades com dois padrões de invocação distintos documentados e demonstrados
→ Comandos personalizados que se encadeiam em um fluxo de trabalho de orquestração completo
→ Configurações de servidor MCP prontas para serem inseridas em qualquer projeto
→ 8 guias de melhores práticas cobrindo todos os principais recursos do Claude Code
→ 8 relatórios técnicos aprofundados, incluindo dicas do próprio Boris Cherny
Aqui está a parte incrível:
Inclui uma demonstração de orquestração ao vivo que encadeia Comandos → Agentes → Habilidades juntos em um fluxo de trabalho.
Você vê exatamente como um comando é enviado a um agente, como o agente carrega uma habilidade pré-carregada e como uma segunda habilidade é invocada de forma independente para gerar a saída final.
Isto não é documentação. Esta é uma implementação de referência funcional.
9.000+ estrelas. Crescendo rapidamente.
(Link do repositório nos comentários)

217
Top
Classificação
Favoritos