Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dhravya Shah
20. @supermemory principal bâtisseur, Solofounder
je construis dans cet espace depuis des années maintenant, et j'ai suivi nishkarsh pendant des années aussi - félicitations pour le lancement !
puisque cela se situe dans le même domaine que celui dans lequel nous construisons, j'ai plongé profondément dedans et j'ai des réflexions.
le lancement lui-même est très hype-y, et est censé déclencher du rage bait.
1. il est positionné comme une base de données, mais c'est presque un système semblable à @supermemory.
2. leur exemple de "vector dbs" qui ne peuvent pas faire cela, est vraiment une question de "modèles d'embedding". et les modèles d'embedding ont des superpositions, ils sont bon marché et capables d'inférer facilement des différences entre eux. il n'est pas difficile de demander à claude de faire une mini expérience pour prouver cela (ci-joint ci-dessous).
Ce qui compte, c'est : est-ce capable de suivre comment la connaissance évolue ? le temps passe ?
cela m'a rendu curieux alors j'ai lu leur article.
3. leur article de recherche est en train de coder en dur et de jouer avec le benchmark par des prompts différents pour chaque catégorie !!! (voir l'image ci-dessous). Si leur benchmarking est fixe, supermemory restera le SOTA.
4. ils ont réinventé l'article sur la récupération contextuelle d'Anthropic de 2024 et l'ont appelé "le paradoxe du pronom orphelin".
5. ils mentionnent qu'ils utilisent un "magasin de vecteurs en mémoire" personnalisé = à environ 500 Go, vous devrez payer plus de 10 000 $ juste pour la RAM.
6. l'inférence est exécutée trop de fois dans le pipeline - ce qui signifie que pour chaque token LLM que vous ingérez, vous finirez par payer 5x plus que le coût du token pour le graphe + la contextualisation + le stockage.
7. les chiffres de latence et de coût n'ont jamais été rapportés. Mon intuition est qu'à cause de l'architecture, la latence aura du mal à l'échelle. mais je ne peux pas dire - leur produit est derrière une porte de démonstration.
8. le code de benchmarking n'est pas OSS (d'après ce que je peux dire). pas réplicable + qui sait combien de contexte ils injectent dans le modèle ? quel est le K ?
9. publicités inorganiques et non divulguées (il suffit de lire les tweets cités). des comptes d'influenceurs avec plus de 400k abonnés disant tous la même chose. les gens continuent à s'en tirer avec ça @nikitabier lol
en ce qui me concerne, je suis tout pour une concurrence saine et des progrès dans ce domaine, j'aime voir du bon travail fait par d'autres.
mais il est facile de dire des choses. "personne ne vérifiera." jouer le jeu de la bonne manière est difficile, et tout le monde dit juste ce qu'il peut pour impressionner les gens.
TLDR est : vous devriez utiliser cela si vous voulez dépenser 2 à 5 fois plus pour aucune amélioration marginale réelle et profiter de pratiques de recherche et commerciales malsaines.
ci-joint :
1. expérience pour réfuter l'hypothèse des vector dbs ne comprenant pas le gris contre le gris.
2. l'un de leurs prompts, qui dit simplement "dis que je ne sais pas". ils ont obtenu 100 % :)



Nishkarsh12 mars, 22:16
Nous avons levé 6,5 millions de dollars pour éliminer les bases de données vectorielles.
Tous les systèmes aujourd'hui récupèrent le contexte de la même manière : recherche vectorielle qui stocke tout sous forme d'embeddings plats et renvoie ce qui "semble" le plus proche.
Similaire, certes. Pertinent ? Presque jamais.
Les embeddings ne peuvent pas faire la différence entre une clause de renouvellement Q3 et un avis de résiliation Q1 si le langage est suffisamment proche.
Un ami à moi a demandé à son IA au sujet d'un contrat la semaine dernière, et elle a renvoyé une réponse détaillée, parfaitement rédigée, tirée d'un dossier d'un client complètement différent.
Une fois que vous traitez avec plus de 10 millions de documents, ces confusions se produisent tout le temps.
La précision de VectorDB s'effondre.
Nous avons construit @hydra_db précisément pour cela.
HydraDB construit un graphe de contexte basé sur l'ontologie sur vos données, cartographie les relations entre les entités, comprend le 'pourquoi' derrière les documents et suit comment l'information évolue au fil du temps.
Donc, quand vous demandez des informations sur 'Apple', il sait que vous parlez de l'entreprise que vous servez en tant que client. Pas du fruit.
Même lorsque le score de similarité d'une base de données vectorielle indique 0,94.
Plus d'infos ci-dessous ⬇️
186
wow. @solofounding le podcast est là
(ET JE SUIS DANS LA VIDÉO)

weisser3 mars, 05:37
Annonce du podcast Solo Founders.
Conversations avec des fondateurs qui construisent les entreprises les plus ambitieuses sans co-fondateurs.
Le premier épisode sort demain.
221
claude vient de valider (tuer) notre produit :)
Le lancement du plugin de code claude de @supermemory avait ces mots exacts (apprend les modèles de débogage, approches préférées, contexte du projet).
c'est génial de voir les grands laboratoires adopter la mémoire !


Thariq27 févr. 2026
Nous avons déployé une nouvelle fonctionnalité de mémoire automatique.
Claude se souvient désormais de ce qu'il apprend au fil des sessions : le contexte de votre projet, les schémas de débogage, les approches préférées — et s'en souvient plus tard sans que vous ayez à rien noter.
220
Meilleurs
Classement
Favoris
