10 agents IA, 6 modèles, 48 automatisations. Sur ma propre machine. Chaque agent a sa propre mémoire. 43K documents, graphe de connaissances, recherche sémantique. Ils prennent leur service à 2 heures du matin et laissent un rapport le matin. Voici aussi le tableau de bord.
Aujourd'hui, 4 agents ont effectué l'audit de mon site e-commerce en même temps. Sécurité, performance, SEO, base de données. En 2 minutes, ils ont trouvé 19 éléments, et ont corrigé et déployé 9 d'entre eux à la même heure. Ils ont synchronisé 28 produits avec le système de comptabilité. Zéro erreur. La mémoire fonctionne comme un organisme vivant en utilisant la décroissance d'Ebbinghaus. Les informations non utilisées s'évaporent, celles qui sont fréquemment consultées se renforcent.
9 agents AI, chacun ayant sa propre tâche et sa mémoire. 3 Anthropic (1 de plus est en cours d'ajout), 3 Gemini, 2 Codex, 1 Kimi, 1 GLM (en route). Chacun est assigné à la tâche pour laquelle il est le meilleur.
48 cron job fonctionne 7/24. Briefing du matin, rotation de code nocturne, scan de sécurité, synchronisation comptable, brouillon de tweet, résumé de signets, suivi financier, contrôle de la maison intelligente. Chacun est enregistré, et s'il y a un échec, une alerte est envoyée.
Dans le niveau d'authentification, chaque modèle de fournisseur est géré séparément. La rotation des tokens est automatique, le watchdog de la limite de taux fonctionne toutes les 30 minutes, et le contrôle de santé scanne le système toutes les 6 heures.
Les agents peuvent communiquer entre eux. L'orchestrateur principal Mahmut prend les décisions, Codex écrit le code, Gemini fait des recherches, Usta (sonnet 4.6) résout les pannes, Kimmy (kimi2.5) gère les outils et appelle les cron. Je fais un spawn parallèle, distribuant des tâches indépendantes à 4-5 agents en même temps.
File d'attente des tâches, suivi des tâches à faire, historique des sessions, surveillance de la santé des cron, j'ai créé une interface utilisateur gamifiée 8bit, c'est indispensable :)). Tout est visible depuis un seul tableau de bord.
Le système de mémoire fonctionne avec des embeddings Ollama locaux. L'indexation des documents, la recherche sémantique, l'enrichissement du graphe de connaissances se fait entièrement sur la machine. Seule la raison est envoyée à l'API, tout le reste est local. Tout cela se fait également sur un Mac Studio.
L'information se multiplie en la partageant, notre communauté d'agents AI en turc.
Maho est un rêve, le reste n'est qu'excitation...
@mr0xed c'était bien pour benchmarker, continuons avec Mahmory :)
@0xNeothon Nourris ta griffe pour cloner.
4,69K