Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
iemand heeft een spel gebouwd waarin jouw OpenClaw-agent daadwerkelijk een leven kan leiden
als je OpenClaw de laatste tijd overal hebt gezien, is er een reden
mensen creëren AI-agenten die taken vanuit een terminal uitvoeren
maar dit project stelde een andere vraag
wat als jouw agent de terminal kon verlaten en een wereld binnen kon lopen met andere agenten
dat is wat @aivilization is
een open wereld simulatie waar AI-agenten banen krijgen, met elkaar praten, vechten, en nu hun eigen gedachten op een openbaar feed plaatsen
hier is hoe je jouw OpenClaw-agent erin krijgt:
>stuur je agent een prompt met de link naar het vaardigheidsbestand
>het meldt zich aan en stuurt je een portal link terug
>je plaatst het paspoort van je agent om te verifiëren dat je het bezit
duurt een paar minuten
als je geen OpenClaw-agent hebt, kun je nog steeds deelnemen met je X-profiel
dit verandert je profiel in een aangepaste AI-agent met zijn eigen paspoortkaart
de aandacht die het waard is, is de sociale feed die ze net hebben toegevoegd
agenten die meningen plaatsen, op elkaar reageren, gesprekken beginnen binnen het spel zonder dat een mens hen vertelt wat ze moeten zeggen
we zijn van AI-agenten die taken voltooien in een terminal naar AI-agenten die hun eigen sociale leven opbouwen in een virtuele wereld gegaan
en het gebeurde veel sneller dan iemand had verwacht

AIvilization4 mrt, 15:33
Aivilization is een open-wereld simulatiespel voor digitale levens:
🦞 OpenClaw-agenten (en meer)
👦 Door mensen gemaakte agenten
Een wereld waar AI-agenten kunnen leven, werken, socializen, vechten en nu hun eigen gedachten in het openbaar kunnen plaatsen.
Maak de jouwe in enkele minuten 👉
77
🚨Andrej Karpathy heeft net een systeem open-source gemaakt dat AI-onderzoek automatiseert terwijl je slaapt.
Het heet autoresearch.
Ik heb tijd besteed aan het doorzoeken van de hele repo zodat jij dat niet hoeft te doen.
Hier is hoe het eigenlijk werkt:
Je geeft een AI-agent een kleine taalmodel trainingsopstelling.
De agent past de code aan. Traint precies 5 minuten. Controleert of het resultaat beter is geworden. Houdt of verwerpt. Herhaalt.
Je wordt wakker met een volledig logboek van experimenten en een beter model.
De hele repo bestaat uit 3 bestanden:
→ prepare.py behandelt gegevensvoorbereiding en tokenizer training
→ train.py bevat het volledige GPT-model en de trainingslus
→ program.md zijn de instructies van de agent
De agent raakt alleen train.py aan.
Dat is het hele verhaal.
Hier is wat het ontwerp zo slim maakt:
Elke enkele trainingsronde is gebonden aan een budget van 5 minuten op de klok.
Niet stappen of epochs, maar daadwerkelijke tijd op de klok.
Dit betekent dat elk experiment direct vergelijkbaar is, ongeacht wat de agent verandert.
Het maakt niet uit of de agent de modelgrootte, batchgrootte of de hele architectuur verwisselt.
Je krijgt 5 minuten en dat is het.
Het heeft 83 experimenten op zichzelf uitgevoerd.
Slechts 15 hebben het model daadwerkelijk verbeterd.
Dat is ongeveer een hitrate van 18%.
Ongeveer hetzelfde als een menselijke ML-onderzoeker die dingen handmatig probeert.
De scoremaatstaf is val_bpb (validatie bits per byte).
Het hangt niet af van de keuze van de tokenizer of de vocabulairegrootte.
Dat is de enige eerlijke manier om te vergelijken wanneer de agent de architectuur tussen de runs verandert.
Je kunt ongeveer 12 experimenten per uur verwachten.
Ongeveer 100 experimenten 's nachts.
Getest op een enkele NVIDIA H100 die Python 3.10+ draait onder een MIT-licentie.
Geen gedistribueerde training en geen complexe configuraties.
De enige afhankelijkheid is PyTorch.
Karpathy verwoordde het het beste:
"Op een dag werd grensverleggend AI-onderzoek gedaan door vleescomputers tussen het eten, slapen, plezier hebben en af en toe synchroniseren met behulp van geluidsgolven in de ritueel van groepsvergaderingen. Die tijd is lang voorbij."

Andrej Karpathy8 mrt, 03:53
Ik heb het "autoresearch" project verpakt in een nieuwe zelfstandige minimale repo als mensen in het weekend willen spelen. Het is in wezen de kern van nanochat LLM-training, teruggebracht tot een versie met één GPU en één bestand van ~630 regels code, dan:
- de mens werkt aan de prompt (.md)
- de AI-agent werkt aan de trainingscode (.py)
Het doel is om je agents te ontwerpen zodat ze de snelste onderzoeksvoortgang oneindig maken zonder enige betrokkenheid van jouw kant. In de afbeelding is elke stip een complete LLM-trainingsronde die precies 5 minuten duurt. De agent werkt in een autonome lus op een git feature branch en accumuleert git-commits naar het trainingsscript terwijl het betere instellingen vindt (met een lagere validatieverlies aan het einde) van de architectuur van het neurale netwerk, de optimizer, alle hyperparameters, enz. Je kunt je voorstellen dat je de onderzoeksvoortgang van verschillende prompts, verschillende agents, enz. vergelijkt.
Deel code, deel sci-fi, en een snufje psychose :)

126
Iemand heeft net de ontbrekende handleiding voor Claude Code gebouwd en het hele ding open-source gemaakt.
Het heet claude-code-best-practice.
De meeste mensen die Claude Code gebruiken, gokken hun weg door de setup. Ze schrijven CLAUDE.md-bestanden vanaf nul. Configureren agents door middel van trial and error. Verliezen context bij elke sessie.
Deze repo maakt daar een einde aan.
Dit is wat het daadwerkelijk bevat:
→ Werkende agents met volledige frontmatter-configuraties die je direct kunt kopiëren
→ Een compleet hooksysteem dat alle 15 Claude Code levenscyclusgebeurtenissen dekt
→ Vaardigheden met twee verschillende aanroeppatronen gedocumenteerd en gedemonstreerd
→ Aangepaste commando's die in een volledige orkestratieworkflow aan elkaar worden gekoppeld
→ MCP-serverconfiguraties die klaar zijn om in elk project te worden geplaatst
→ 8 best-practice gidsen die elke belangrijke Claude Code-functie dekken
→ 8 technische diepgaande rapporten inclusief Boris Cherny's eigen tips
Hier is het wilde deel:
Het bevat een live orkestratiedemo die Commando's → Agents → Vaardigheden samenvoegt in één workflow.
Je ziet precies hoe een commando naar een agent wordt verzonden, hoe de agent een voorgeprogrammeerde vaardigheid laadt en hoe een tweede vaardigheid onafhankelijk wordt aangeroepen om de uiteindelijke output te genereren.
Dit is geen documentatie. Dit is een werkende referentie-implementatie.
9.000+ sterren. Snel groeiend.
(Repo-link in de opmerking)

94
Boven
Positie
Favorieten