Zainspirowany autoresearch Karpathy'ego, nauczyłem VibeHQ samodzielnej ewolucji, nie ewolucji pojedynczego agenta, ale ewolucji całego sposobu współpracy Multi Agents. 7 razy całkowicie automatyczne działanie, zero interwencji ludzkiej: • Zużycie tokenów: 7,2M → 5,7M (szczyt spadł o 62%) • Zredukowane problemy związane z koordynacją (powtarzające się prace itp.): 4 → 0 • Marnotrawstwo tokenów PM: -91% Pętla: benchmark → współpraca kwantyfikacja oraz analiza LLM trybów niepowodzenia → /optimize-protocol przepisanie kodu koordynacji → odbudowa → powtórz. AI samo obserwuje, jak agenci współpracują, analizuje, dlaczego to się nie udaje, a następnie samodzielnie zmienia swój kod źródłowy, aby skoordynować logikę współpracy, przez cały czas zero interwencji ludzkiej, całkowicie pozwalając AI na samodzielne organizowanie swojego zespołu. Zobaczyłem kilka powiązanych rzeczy, autoresearch zajmuje się automatyczną optymalizacją treningu modelu, wcześniejszy Ralph był autonomiczną pętlą pojedynczego agenta, Gastown jednocześnie uruchamia 20-30 Claude Code do orchestracji, ale nie ma zdolności ewolucyjnych, to wszystko jest imponujące, ale na końcu również ewoluuje zdolność pojedynczego agenta. Nikt nie ewoluuje samej współpracy zespołowej, jak podzielić pracę, jak unikać konfliktów, jak dzielić kontekst, jak wzajemnie się odblokowywać, tak jak w prawdziwym świecie, zespół AI również potrzebuje dopasowania. Wyobraź sobie, co się stanie, gdy to będzie działać: • Agenci sami rozwijają kulturę zespołową i współpracę. • Dostosowują się do projektu, przydzielając zespół 3-osobowy lub 7-osobowy w zależności od stopnia rozwoju projektu. • Im więcej projektów realizują jednocześnie, tym silniejszy zespół. • Agenci mogą w trakcie projektu onboardować nowych członków zespołu, automatycznie przekształcając przydział pracy. Szczerze mówiąc, co ostatecznie ewoluuje? Też nie wiem, ale to jest najbardziej ekscytująca część.