Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Yapay zekanız ona söylediklerinizi sessizce unutuyordu.
Rastgele değil. Yüksek sesle değil. Sistematik olarak. En önemli kararlarla başlayalım.
> Üç ay önce koyduğunuz kısıtlama "Redis asla kullanman, müşteri bir üretim olayı sonrası veto etti." Gitti. GDPR dağıtım bölgesi kısıtlaması. Gitti. Tekrar deneme sınırı, kaskad başarısızlıktan sonra ampirik olarak test ettiğin sınır. Gitti.
> Model sana hiç söylemedi. Sadece varsayılan ayarları kullanmaya başladı.
> Buna bağlam çürümesi denir. Ve Cambridge ile Bağımsız araştırmacılar tam olarak ne kadar kötü olduğunu niceldi.
> Yeterince uzun süre çalışan her üretim yapay zeka sistemi, sonunda bağlamını sıkıştırarak yeni bilgilere yer açacaktır. Bu sıkıştırma felaket derecede kayıplı. Doğrudan test ettiler: 2.000 gerçek 36,7 seviyesinde sıkıştırıldığında× bilgi tabanının %60'ını kalıcı olarak geri alınamaz bıraktı. Halüsinasyon görmedim. Yanlış değil. Sadece gitti. Model dürüstçe artık bu bilgiye sahip olmadığını bildirdi.
> Sonra daha kötü bir şey test ettiler. 88 turluk bir konuşmaya 20 gerçek proje kısıtlaması gömdüler; bu tür kısıtlamalar uzun süredir devam eden herhangi bir projede doğal olarak ortaya çıkıyor ve ardından üretim sistemleri gibi zincirleme sıkıştırma uygulanıyordu. Bir turdan sonra: %91 korunmuştur. İki turdan sonra: %62. Üç turdan sonra: %46.
> Model tüm süre boyunca tam güvenle çalışmaya devam etti. Unutulmuş kısıtlamaları ihlal eden çıktılar üretiyordu. Hata sinyali yok. Uyarı yok. Sadece senin özel durumun için yanlış olan makul varsayılan ayarlara sessiz geri dönüş.
> Bunu dört öncü modelde test ettiler. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Hepsi sıkıştırma altında çöktü. Bu bir model sorunu değil. Mimari bir konu.
→ tek sıkıştırma geçişinden sonra gerçeklerin %60'ı kalıcı olarak kaybolur
→ proje kısıtlamalarının %54'ü üç tur zincirli sıkıştırmadan sonra ortadan kalktı
→ GPT-5.4, sadece 2× sıkıştırmada %0 doğruluğa düştü
→ Opus bile 20× sıkıştırmada sadece %5 gerçekleri korudu
→ Bağlam içindeki hafıza, 7.000 gerçekle yılda 14.201 dolar tutarken, alternatif için yılda 56 dolar tutar
Yapay zeka laboratuvarları bunu biliyor. Çözümleri daha büyük bağlam pencereleri. 10M-token penceresi daha büyük bir kovadır. Hâlâ bir kova. Sıkıştırma uzun süredir çalışan herhangi bir sistem için kaçınılmazdır. Pencere boyutu sadece unutmanın ne zaman başladığını belirler, olup olmadığını değil.

En İyiler
Sıralama
Takip Listesi
