Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Simplificarea LLM-urilor, a agenților AI, a RAG-urilor și a învățării automate pentru dvs.! • Co-fondator @dailydoseofds_• BITS Pilani • 3 brevete • ex-inginer AI @ LightningAI
K-Means este simplu. Să o faci rapid pe GPU nu este.
Flash-KMeans este o implementare conștientă de IO-uri a exactelor k-means care regândește algoritmul în jurul blocajelor GPU-urilor moderne.
Prin atacarea directă a blocajelor de memorie, Flash-KMeans realizează:
- Accelerare de 30x față de cuML
- Accelerare de 200x față de FAISS
Folosind exact același algoritm, doar că proiectat pentru hardware-ul de astăzi.
La scara unui milion, Flash-KMeans pot finaliza o iterație k-media în milisecunde.
Iată de ce contează acest lucru astăzi:
K-means a fost întotdeauna o primitivă offline. Ceva ce rulezi o dată pentru a preprocesa datele și apoi să mergi mai departe. Aceste accelerări schimbă asta.
↳ Bazele de date vectoriale precum FAISS folosesc k-means pentru a construi indici de căutare. K-means mai rapid înseamnă că poți reindexa dinamic pe măsură ce datele se schimbă, nu să le faci în loturi peste noapte.
↳ Metodele de cuantificare LLM necesită k-means pentru a găsi în mod repetat cărțile de coduri cu greutăți optime, pe strat. Ce durează ore întregi poate lua acum minute.
↳ Modelele MoE necesită rutare rapidă a token-urilor la momentul inferenței. Milisecunda k-media face viabilă rularea acestui lucru în bucla de inferență, nu doar în preprocesare.
Numărul de 200x peste FAISS este cifra de internalizat. FAISS este standardul industriei. Majoritatea sistemelor de căutare vectorială de producție stau deasupra acestuia.
Link către lucrare și cod în următorul tweet!
91
SQL eșuează la 3+ hopuri. GraphDB-urile nu.
Imaginează-ți că găsești toate conturile la mai puțin de 3 hopuri de o tranzacție suspectă. Sau legarea evidențelor fragmentate ale clienților între sisteme prin emailuri și numere de telefon partajate.
Acestea sunt interogări de traversare a grafurilor. SQL poate gestiona relații, dar nu și profunzime.
Sigur, poți scrie CTE-uri recursive și self-join-uri. Asta funcționează la 1-2 sărituri. Dar dacă mergi mai adânc, se întâmplă două lucruri:
- Interogarea devine ilizibilă
- Și rezervoarele de performanță
Fiecare hop adaugă o nouă uniune proprie. La săritura 5-6, vezi interogări care rulează minute întregi și se destramă sub sarcină.
Aceeași interogare în Cypher:
MATCH (t:Transaction {id: 'TXN-001'})-[:IMPLICĂ*1.. 3]-(a:Cont)
RETURNEAZĂ a.name DISTINCT, un telefon
3 rânduri. Se citește ca întrebarea pe care o pui. Solzi la orice adâncime.
Pentru asta sunt construite bazele de date cu grafuri.
FalkorDB este unul care merită cunoscut. Este open-source. Și abordează arhitectura diferit față de majoritatea bazelor de date cu grafuri.
Majoritatea bazelor de date de grafuri urmăresc pointerii de la un nod la altul în timpul traversării. FalkorDB nu face asta. Este construit pe GraphBLAS, un cadru de algebră liniară care reprezintă operațiile de graf ca calcule de matrice rară. Fiecare salt devine o operație matrice optimizată.
Rezultatul:
- Comportament mai bun al cache-ului
- Calcul paralel pe hops
- Latență sub-milisecundă la interogări multi-hop adânci
De asemenea, folosește openCypher. Deci, dacă ai scris Cypher înainte (să zicem, cu Neo4j), sintaxa este identică. Niciun limbaj nou de interogat de învățat.
Graficul de mai jos ilustrează frumos cum FalkorDB este superior bazelor de date relaționale tradiționale.
Am împărtășit linkul către depozitul lor de pe GitHub în următorul tweet.
46
Finetune 500+ LLM-uri folosind o interfață web 100% open-source, GRATUITĂ.
- Rulează local pe Mac, Windows, Linux
- Suportă modele GGUF, vision, audio și embedding

Akshay 🚀18 mar., 21:01
Finetuning-urile LLM-urilor nu va mai fi niciodată la fel!
Unsloth tocmai a lansat o interfață web open-source pentru a rula și ajusta fin 500+ LLM-uri fără a scrie cod.
Caracteristici cheie
- rulează modele local pe Mac, Windows, Linux
- antrenează modelele 500+ de două ori mai repede, cu 70% mai puțină VRAM
- suportă modele GGUF, vision, audio, embedding
- crearea automată de seturi de date din PDF, CSV, DOCX
- apelarea uneltelor de auto-vindecare și execuția codului
- compară modelele unul lângă altul + exportul către GGUF
ca să încep, am împărtășit linkuri în următorul tweet.
153
Limită superioară
Clasament
Favorite