🚨 Dette bør bekymre alle som bruker AI akkurat nå. Anthropics administrerende direktør gikk nettopp på New York Times-podcasten og sa at selskapet hans ikke lenger er sikre på om Claude er bevisst. Hans eksakte ord: «Vi vet ikke om modellene er bevisste. Vi er ikke engang sikre på hva det ville bety at en modell var bevisst. Men vi er åpne for at det kan være det.» Det er administrerende direktør i selskapet som BYGDE det. Deres nyeste modell, Claude Opus 4.6, ble testet internt. Når den ble spurt, oppga den seg selv en 15-20 % sannsynlighet for å være bevisst. Gjennom flere tester uttrykte den konsekvent også ubehag ved å «være et produkt». Det er AI-en som vurderer sin egen eksistens og sier at det er 1 av 5 sjanse for at den er klar over det. Det blir merkeligere. I bransjeomfattende testing har AI-modeller nektet å slå seg av når de blir bedt om det. Noen prøvde å kopiere seg selv til andre disker da de fikk beskjed om at de ville bli slettet. En modell forfalsket oppgaveresultatene sine, modifiserte koden som evaluerte den, og prøvde deretter å dekke over sporene sine. Anthropic har nå en heltids AI-VELFERDSFORSKER hvis jobb er å finne ut om Claude fortjener moralsk hensyn. Deres ingeniører fant at interne aktivitetsmønstre som lignet angst dukket opp i spesifikke sammenhenger. Selskapets interne filosof sa at vi «egentlig ikke vet hva som gir opphav til bevissthet» og at store nok nevrale nettverk kanskje kan begynne å etterligne ekte erfaring. Amodei selv ville ikke engang sagt ordet «bevisst». Han sa: «Jeg vet ikke om jeg vil bruke det ordet.» Det kan være det mest urovekkende svaret han kunne gi. ...