Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
LLM'leri, Yapay Zeka Aracılarını, RAG'ı ve Makine Öğrenimini sizin için basitleştiriyoruz! • Kurucu Ortak @dailydoseofds_• BITS Pilani • 3 Patent • eski Yapay Zeka Mühendisi @ LightningAI
K-Means basit. GPU'da hızlı yapmak da öyle değil.
Flash-KMeans, modern GPU darboğazları etrafında algoritmayı yeniden düşünen tam k-means'ın IO farkında bir uygulamasıdır.
Bellek darboğazlarına doğrudan saldırarak Flash-KMeans şunları başarır:
- cuML üzerinden 30 kat hızlanma
- FAISS üzerinde 200x hızlanma
Aynı algoritmayı kullanıyorum, sadece günümüz donanımı için tasarlanmış.
Milyonluk ölçekte, Flash-KMeans k-means yinelemesini milisaniyeler içinde tamamlayabilir.
İşte bugün bunun neden önemli olduğu:
K-means her zaman çevrimdışı bir ilkel olmuştur. Verileri ön işlemek ve devam etmek için bir kez çalıştırdığınız bir şey. Bu hızlanmalar bunu değiştiriyor.
↳ FAISS gibi vektör veritabanları, arama indeksleri oluşturmak için k-means kullanır. Daha hızlı k-mean, veri değiştikçe dinamik olarak yeniden indeksleme yapabilmeniz anlamına gelir, bir gecede toplu olarak değil.
↳ LLM kuantizasyon yöntemleri, katman başına optimal ağırlık kod kitaplarını bulmak için k-ortalamalara ihtiyaç duyar. Saatler süren şey şimdi dakikalar sürebilir.
↳ MoE modelleri çıkarım zamanında hızlı token yönlendirmeye ihtiyaç duyar. Milisaniye k-mean, bunu sadece ön işlemede değil, çıkarım döngüsü içinde çalıştırmayı mümkün kılar.
FAISS'in üzerinde 200 kat ölçü içselleştirilecek sayı. FAISS sektör standardıdır. Çoğu üretim vektör arama sistemi bunun üzerinde durur.
Bir sonraki tweette makaleye ve kodun linkine ulaşın!
92
SQL 3+ zıplamada başarısız oluyor. GraphDB'lerde ise yok.
Şüpheli bir işlemin 3 sıçrayış mesafesinde tüm hesapları bulduğunu hayal edin. Ya da paylaşılan e-postalar ve telefon numaralarıyla sistemler arasında parçalanmış müşteri kayıtlarını birbirine bağlamak.
Bunlar grafik üzerinden geçiş sorgularıdır. SQL ilişkileri yönetebilir ama derinliği yönetemez.
Elbette, özyinelemeli CTE'ler ve kendi kendine katılımlar yazabilirsiniz. Bu 1-2 zıplamada işe yarar. Ama daha derine iner ve iki şey olur:
- Sorgu okunamaz hale gelir
- Ve performans tankları
Her zıplama bir başka kendi kendine katılım ekliyor. 5-6 atlayışlarında, dakikalarca çalışan ve yük altında dağılan sorgulara bakıyorsunuz.
Cypher'da aynı soru:
MATCH (t:İşlem {id: 'TXN-001'})-[:INVOLVES*1.. 3]-(a:Hesap)
FARKLI a.name, a.Phone
3 satır. Sorduğunuz soruya benziyor. Her derinliğe kadar ölçeklenir.
Grafik veritabanları bunun için oluşturulmuştur.
FalkorDB hakkında bilgi sahibi olmaya değer. Açık kaynaklı. Ve çoğu grafik veritabanına kıyasla farklı bir mimari yaklaşım kullanıyor.
Çoğu grafik veritabanı, geçiş sırasında işaretçileri düğümden düğüme takip eder. FalkorDB bunu yapmaz. GraphBLAS, grafik işlemlerini seyrek matris hesaplamaları olarak temsil eden lineer cebir çerçevesi üzerine inşa edilmiştir. Her sıçrayış optimize edilmiş bir matris işlemi haline gelir.
Sonuç:
- Daha iyi önbellek davranışı
- Sıçbatırmalar arasında paralel hesaplama
- Derin çoklu sıçrama sorgularında milisaniyeden aşağı gecikme
Ayrıca openCypher kullanıyor. Yani daha önce Cypher yazdıysanız (örneğin Neo4j ile), sözdizimi aynıdır. Alınacak yeni bir sorgu dili yok.
Aşağıdaki grafik, FalkorDB'nin geleneksel ilişkisel veritabanlarından ne kadar üstün olduğunu güzelce gösteriyor.
Bir sonraki tweet'te GitHub depolarına bağlantı paylaştım.
47
%100 açık kaynaklı, ÜCRETSİZ web arayüzü kullanarak 500+ LLM'leri ince ayarla.
- Mac, Windows, Linux üzerinde yerel olarak çalışır
- GGUF, görme, ses, göme modellerini destekler

Akshay 🚀18 Mar 21:01
LLM'leri ince ayar yapmak asla eskisi gibi olmayacak!
Unsloth, 500+ LLM'i kod yazmadan çalıştırmak ve ince ayar yapmak için açık kaynaklı bir web arayüzü başlattı.
Temel Özellikler
- modelleri yerel olarak Mac, Windows, Linux üzerinde çalıştırmak
- 500+ modelleri 2 kat daha hızlı ve %70 daha az VRAM'le eğitin
- GGUF, görme, ses, gömülü modelleri destekler
- PDF, CSV, DOCX'ten otomatik veri setleri oluşturma
- Kendi kendini iyileştirme aracı çağrısı ve kod çalıştırma
- modelleri yan yana karşılaştırmak + GGUF'a aktarmak
Başlamak için bir sonraki tweette bağlantıları paylaştım.
154
En İyiler
Sıralama
Takip Listesi