Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Semplificando LLM, agenti AI, RAG e Machine Learning per te! • Co-fondatore @dailydoseofds_• BITS Pilani • 3 brevetti • ex-AI Engineer @ LightningAI
SQL fallisce a 3+ salti. I GraphDB no.
Immagina di trovare tutti gli account entro 3 salti da una transazione sospetta. O di collegare record di clienti frammentati tra sistemi tramite email e numeri di telefono condivisi.
Queste sono query di traversata del grafo. SQL può gestire le relazioni ma non la profondità.
Certo, puoi scrivere CTE ricorsivi e self-join. Funziona a 1-2 salti. Ma vai più in profondità e succedono due cose:
- La query diventa illeggibile
- E le prestazioni crollano
Ogni salto aggiunge un altro self-join. A salto 5-6, stai guardando query che girano per minuti e si rompono sotto carico.
La stessa query in Cypher:
𝗠𝗔𝗧𝗖𝗛 (𝘁:𝗧𝗿𝗮𝗻𝘀𝗮𝗰𝘁𝗶𝗼𝗻 {𝗶𝗱: '𝗧𝗫𝗡-𝟬𝟬𝟭'})-[:𝗜𝗡𝗩𝗢𝗟𝗩𝗘𝗦*𝟭..𝟯]-(𝗮:𝗔𝗰𝗰𝗼𝘂𝗻𝘁)
𝗥𝗘𝗧𝗨𝗥𝗡 𝗗𝗜𝗦𝗧𝗜𝗡𝗖𝗧 𝗮.𝗻𝗮𝗺𝗲, 𝗮.𝗽𝗵𝗼𝗻𝗲
3 righe. Legge come la domanda che stai ponendo. Scala a qualsiasi profondità.
Questo è ciò per cui sono costruiti i database a grafo.
FalkorDB è uno da conoscere. È open-source. E adotta un approccio architettonico diverso rispetto alla maggior parte dei GraphDB.
La maggior parte dei database a grafo insegue puntatori da nodo a nodo durante la traversata. FalkorDB non fa così. È costruito su GraphBLAS, un framework di algebra lineare che rappresenta le operazioni grafiche come calcoli di matrici sparse. Ogni salto diventa un'operazione di matrice ottimizzata invece.
Il risultato:
- Migliore comportamento della cache
- Computazione parallela attraverso i salti
- Latenza sub-millisecondo su query multi-salto profonde
Utilizza anche openCypher. Quindi, se hai scritto Cypher prima (diciamo, con Neo4j), la sintassi è identica. Nessun nuovo linguaggio di query da apprendere.
Il grafico qui sotto illustra bene come FalkorDB sia superiore ai tradizionali database relazionali.
Ho condiviso il link al loro repository GitHub nel tweet successivo.
40
Affina oltre 500 LLM utilizzando un'interfaccia web 100% open-source e GRATUITA.
- Funziona localmente su Mac, Windows, Linux
- Supporta modelli GGUF, visione, audio, embedding

Akshay 🚀18 mar, 21:01
il fine-tuning dei LLM non sarà mai più lo stesso!
Unsloth ha appena lanciato un'interfaccia web open-source per eseguire e affinare oltre 500 LLM senza scrivere alcun codice.
caratteristiche principali
- esegui modelli localmente su Mac, Windows, Linux
- allena oltre 500 modelli 2 volte più velocemente con il 70% di VRAM in meno
- supporta modelli GGUF, visione, audio, embedding
- crea automaticamente dataset da PDF, CSV, DOCX
- strumento di auto-riparazione per chiamate ed esecuzione di codice
- confronta modelli affiancati + esporta in GGUF
per iniziare, ho condiviso i link nel tweet successivo.
147
il fine-tuning dei LLM non sarà mai più lo stesso!
Unsloth ha appena lanciato un'interfaccia web open-source per eseguire e affinare oltre 500 LLM senza scrivere alcun codice.
caratteristiche principali
- esegui modelli localmente su Mac, Windows, Linux
- allena oltre 500 modelli 2 volte più velocemente con il 70% di VRAM in meno
- supporta modelli GGUF, visione, audio, embedding
- crea automaticamente dataset da PDF, CSV, DOCX
- strumento di auto-riparazione per chiamate ed esecuzione di codice
- confronta modelli affiancati + esporta in GGUF
per iniziare, ho condiviso i link nel tweet successivo.
158
Principali
Ranking
Preferiti