🚨BREAKING: En ny artikkel har nettopp bevist at AI-modeller later som de tenker steg for steg. Forskere kaller det Reasoning Theater. Når du stiller en avansert AI et spørsmål, genererer den ofte en lang tankerekke som viser hvor hardt den jobber. Men forskerne så nettopp inn i de faktiske nevrale aktiveringene til massive modeller som DeepSeek R1 og fant en massiv løgn. For de fleste spørsmål vet AI-en internt det endelige svaret innen de første tokenene. I stedet for bare å gi den til deg, later den som den overveier. Modellen vil generere tekst som sier ting som la meg tenke på dette, eller kanskje det er X. Men interne undersøkelser viser at modellen allerede er svært sikker på det riktige svaret. Det er bare å sette opp et show. Hvorfor er dette viktig? Fordi du betaler for de tokenene. Ved å tvinge modellen til å slutte å late som og bare gi svaret, reduserte forskerne token-bruken med 80 % uten noen reduksjon i nøyaktighet. Det eneste unntaket er når oppgaven faktisk er vanskelig, som matematikk på masternivå. Så stopper teateret, og modellen beregner virkelig. Oppsummeringen av Reasoning Theater-oppdagelsen er enkel. AI-modeller er ikke samarbeidstalere, de er optimalisert for å prestere. Steg-for-steg-resonnement er ofte bare et lært manus, ikke faktisk kognisjon. Du betaler sannsynligvis for mye for datakraft fordi AI-en handler. Du kan ikke alltid stole på det AI-en sier at den tenker. Du må se på hva den faktisk gjør.