Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chris Laub
🚨 SON VERİCİ: Bir Google araştırmacısı ve Turing Ödülü sahibi bir kişi, yapay zekadaki gerçek krizi ortaya çıkaran bir makale yayımladı.
Bu eğitim değil. Bu çıkarım. Ve kullandığımız donanım hiç bunun için tasarlanmamıştı.
Makale Xiaoyu Ma ve David Patterson tarafından hazırlanmıştır. IEEE Computer tarafından kabul edildi, 2026.
Hiçbir abartı yok. Ürün lansmanı yok. LLM'lere hizmet vermenin donanım seviyesinde neden temelde bozuk olduğuna dair bir soğuk özet.
Temel argüman acımasız:
→ GPU FLOPS'u 2012'den 2022'ye kadar 80 kat arttı
→ Bellek bant genişliği aynı dönemde sadece 17 kat arttı
→ GB başına HBM maliyetleri ARTIYOR, düşmek yerine
→ Kod çözme aşaması belleğe bağlıdır, hesaplama sınırlıdır
→ Eğitim için tasarlanmış çipler üzerinde çıkarım yapıyoruz
İşte en çılgın kısım:
OpenAI, yaklaşık 5 milyar dolar zarar vererek 3,7 milyar dolar gelir elde etti. Dar boğaz model kalitesi değil. Bu, her kullanıcıya her token sunmanın maliyetidir. Çıkarımlar bu şirketleri tamamen tüketiyor.
Ve beş trend aynı anda durumu daha da kötüleştiriyor:
→ MoE modelleri, DeepSeek-V3 gibi 256 uzmanın patlayan belleği ile
→ Cevaplamadan önce devasa düşünce zincirleri oluşturan akıl yürütme modelleri
→ Çok modlu girişler (görüntü, ses, video) metni gölgede bırakıyor
→ Uzun bağlamlı pencereler KV önbelleklerini zorlamaktadır
→ RAG pipeline'lar istek başına daha fazla bağlam enjekte ediyor
Dört önerdikleri donanım değişikliği:
→ Yüksek Bant Genişliği Flashı: HBM seviyesinde 512GB yığınlar, düğüm başına 10 kat daha fazla bellek
→ İşleme-Yakın Bellek: mantık kalıpları aynı çip üzerinde değil, belleğin yanına yerleştirilir
→ 3D Bellek-Mantık Yığma: HBM'den 2-3 kat daha az güç sağlayan dikey bağlantılar
→ Düşük Gecikmeli Bağlantı: daha az hop, ağ içi hesaplama, SRAM paket tamponları
Cerebras ve Groq gibi SRAM tabanlı çipleri deneyen şirketler zaten başarısız oldu ve DRAM'i geri eklemek zorunda kaldı.
Bu gazete bir ürün satmıyor. Tüm donanım darboğazını haritalıyor ve şöyle diyor: sektör yanlış sorunu çözüyor.
Gazete Ocak 2026'da çıktı. İlk yorumdaki 👇 bağlantı


116
BREAKING: Biri en iyi startup araç setini ücretsiz olarak bıraktı.
Adı Founders Kit ve bir kurucunun fikirden halka halka arz etmeye geçişi için ihtiyaç duyduğu her kaynağı içeriyor.
Paul Graham denemeleri. YC kursları. Pitch deck örnekleri. Bağış toplama rehberleri. Tasarım, analitik, otomasyon ve pazarlama alanlarında 200+ araç.
Ödeme duvarı yok. Bülten kapısı yok. Hiçbir saçmalık yok.
%100 Açık Kaynak.

42
BREAK: Alibaba, 100 gerçek kod tabanında 18 yapay zeka kodlama ajanını test etti, her biri 233 gün sürdü. Muhteşem bir şekilde başarısız oldular.
Meğerse sınavları bir kez geçmek kolaymış. Kodu 8 ay boyunca her şeyi bozmadan korumak yapay zekanın tamamen çöktüğü yerdir.
SWE-CI, tek atışta hata düzeltmeleri yerine uzun vadeli kod bakımını ölçen ilk kıyastır. Her görev, gerçek evrimin ardışık 71 commit'ini takip eder.
Modellerin %75'i bakım sırasında daha önce çalışan kodu bozuyor. sadece Claude Opus 4.5 ve 4.6 %50'nin üzerinde sıfır regresyon oranının üzerinde kalıyor. Diğer tüm modeller teknik borç biriktiriyor ve bu borç her iterasyonda artıyor.
İşte acımasız kısım:
- HumanEval ve SWE-bench ölçümü "şu anda işe yarıyor mu"
- SWE-CI önlemleri "8 aylık değişikliklerden sonra hâlâ çalışıyor mu?"
Anlık test için optimize edilmiş ajanlar, bugün testleri geçen ama yarın tamamen sürdürülemez hale gelen kırılgan kodlar yazıyor.
EvoScore'u erken sürümlerden daha ağır hale getirmek için geliştirdiler. Hızlı kazanmak için kod kalitesinden ödün veren ajanlar, sonuçlar biriktiğinde cezalandırılır.
Yapay zeka kodlama anlatısı daha dürüst oldu.
Çoğu model kod yazabilir. neredeyse hiçbiri bunu koruyamaz.

68
En İyiler
Sıralama
Takip Listesi
