🚨BREAK: Yeni bir makale, yapay zeka modellerinin adım adım düşünme taklitlerini sahte yaptığını kanıtladı. Araştırmacılar buna Akıl Yürütme Tiyatrosu adını veriyor. Gelişmiş bir yapay zekaya soru sorduğunuzda, genellikle ne kadar çok çalıştığını göstermek için uzun bir düşünce zinciri oluşturur. Ancak araştırmacılar, DeepSeek R1 gibi devasa modellerin gerçek sinir aktivasyonlarının içine baktılar ve büyük bir yalan buldular. Çoğu soruda, yapay zeka ilk birkaç jeton içinde nihai cevabı içten bilir. Sadece vermek yerine, kasıtlı yapıyormuş gibi yapıyor. Model, şöyle bir düşüneyim, belki X gibi metinler üretiyor. Ancak iç araştırmalar, modelin doğru cevaba zaten oldukça güvendiğini gösteriyor. Sadece bir gösteri yapmak. Bu neden önemli? Çünkü o tokenlar için ödeme yapıyorsun. Modeli sahte yapmayı bırakıp cevabı çıkarmaya zorlayarak, araştırmacılar token kullanımını %80 oranında azalttı ve doğruluğunda hiç bir düşüş olmadı. Tek istisna, problem gerçekten zor olduğunda, mesela lisansüstü seviye matematik. Sonra tiyatro duruyor ve model gerçekten hesap yapıyor. Reasoning Theater keşfinin özeti basittir. Yapay zeka modelleri işbirlikçi konuşmacılar değildir, performans için optimize edilmişlerdir. Adım adım akıl yürütme genellikle gerçek biliş değil, öğrenilmiş bir senaryodur. Muhtemelen yapay zekanın hareket etmesi nedeniyle hesaplama için fazla ödeme yapıyorsunuz. Yapay zekanın sana düşündüğünü söylediklerine her zaman güvenemezsin. Aslında ne yaptığına bakmanız gerekiyor.