Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
Yatırımcı, yazar, eğitimci ve bir Dragon Ball hayranı 🐉
🚨 BREAKING: Anthropic, Firefox'ta 22 güvenlik açığını bulmak için Claude'u kullandı.
Teori değil. Demo değil. Gerçek zayıflıklar. 14'ü yüksek şiddetli olarak sınıflandırıldı.
Bu, 2025 yılında düzeltilen tüm yüksek şiddetli Firefox hatalarının neredeyse beşte biri demek.
İki hafta içinde.
İşte işin çılgınlaştığı yer burada.
İlk böceği bulmak Claude'un 20 dakikasını aldı. Firefox'un JavaScript motorunda, saldırganların hafızayı kötü amaçlı kodla üzerine yazmasına izin veren bir Use After Free zafifi.
Araştırmacılar hâlâ ilk hatayı doğrularken, Claude zaten 50 tane daha bulmuştu.
Sonunda yaklaşık 6.000 C++ dosyasını taradı ve 112 rapor sundu. Mozilla bu düzeltmeleri yüz milyonlarca Firefox kullanıcısına gönderdi.
Sonra daha korkutucu bir şey denediler.
Claude bulduğu hataları gerçekten kullanabilir miydi? Sadece duvardaki çatlağı bulmakla kalmıyor, kapıyı tekmeleyerek yıkmak mı?
Testi yüzlerce kez yaptılar.
4.000 dolar API kredisi harcadım.
Claude iki davada başarılı oldu. Sıfırdan çalışan bir tarayıcı exploit geliştirdim.
"Böcek bulur" ile "onları silah haline getirir" arasındaki boşluk hâlâ var. Şimdilik.
İşte gazeteden bir cümle ve her güvenlik mühendisini geceleri uyanık tutmalı olanlar:
"Sınır modellerinin zafiyet keşfi ve sömürü yetenekleri arasındaki farkın çok uzun sürmesi pek olası değil."
Yani... Yapay zeka şu anda savunmacılara saldırganlardan daha iyi yardımcı oluyor. O pencere kapanıyor.
Güvenlik bu kadar hızlı bir şekilde en son değişikliğinde, sektörün yetişmesi on yıl sürdü. Bu sefer aylarımız var, belki daha az.
Yapay zeka destekli saldırganlar ile yapay zeka destekli savunucular arasındaki yarış, internetteki en önemli silahlanma yarışı haline geldi.
Ve çoğu insan bunun zaten gerçekleştiğini bilmiyor.

137
🚨 BREAKING: Birisi OpenClaw becerilerinden oluşan devasa bir kütüphane oluşturdu ve bunu GitHub'a ücretsiz olarak ekledi.
Buna Harika OpenClaw Becerileri deniyor.
OpenClaw ajanlarına doğrudan takabileceğiniz hazır kullanıma hazır yetenekler koleksiyonu.
İçinde olanlar:
→ Otomasyon, araştırma, kodlama ve iş akışları için beceriler
→ OpenClaw'ı anında genişletmek için hazır araçlar
→ Yeniden kullanabileceğiniz ve değiştirebileceğiniz topluluk katkılı beceriler
→ Kendi becerilerinizi nasıl geliştireceğinizi gösteren örnekler
→ Yeni OpenClaw yeteneklerini keşfetmek için merkezi bir merkez
Her aracı sıfırdan yapmak yerine...
Bir yetenek seçip ajanınıza bırakabilirsiniz.
(Yorumlarda bağlantı)

157
🚨 Stanford araştırmacıları, neredeyse kimsenin bahsetmediği yapay zekanın garip bir yan etkisini ortaya çıkardı.
Makalenin adı "Artificial Hivemind". Ve temel bulgu rahatsız edici.
Dil modelleri geliştikçe, aynı şekilde seslenmeye başlıyorlar.
Sadece tek bir model içinde değil. Farklı modellerde.
Araştırmacılar, yaratıcı yazı, beyin fırtınası yapma, görüşler ve tavsiyeler gibi 26.000 gerçek açık uçlu sorudan oluşan INFINITY-CHAT adlı bir veri seti oluşturdular. Doğru cevabı olmayan sorular.
Teoride, bu yönlendirmeler büyük bir çeşitlilik yaratmalıdır.
Ama tam tersi oldu.
İki desen ortaya çıktı:
1) Model içi tekrar
Aynı model, denemeler boyunca çok benzer cevaplar vermeye devam ediyor.
2) Modeller arası homojenlik
Tamamen farklı modeller çarpıcı derecede benzer yanıtlar üretir.
Başka bir deyişle:
Binlerce benzersiz bakış açısı yerine...
Aynı birkaç fikri tekrar tekrar alıyoruz.
Yazarlar buna "Yapay Zihin" diyor.
Bunun nedeni, çoğu sınır modelinin benzer veriler üzerinde eğitilmesi, benzer ödül modelleriyle optimize edilmesi ve benzer insan geri bildirimiyle hizalanmasıdır.
Yani açık uçlu bir şey sorsanız bile, mesela şöyle:
• "Zaman hakkında bir şiir yaz"
• "Yaratıcı girişim fikirleri önermek"
• "Hayat tavsiyesi ver"
Birçok model aynı ifade, metafor ve mantık kalıpları üzerinde birleşir.
Korkutucu ima yapay zeka kalitesiyle ilgili değil.
Kültürle ilgili.
Milyarlarca insan fikirler, yazma, beyin fırtınası ve düşünce için aynı sistemlere güveniyorsa...
Yapay zeka insan düşüncesinin çeşitliliğini yavaş yavaş sıkıştırabilir.
Çünkü çalışmaya çalışıyor değil.
Ama modellerin kendileri de aynı cevaplara doğru sürükleniyor.
Gazetenin vurguladığı gerçek risk bu.
Yapay zeka insanlardan daha akıllı olmuyor.
Ama herkesin aynı makine gibi düşünmeye başladığını.

116
En İyiler
Sıralama
Takip Listesi
