🚨 Acest lucru ar trebui să privească fiecare persoană care folosește AI în acest moment. CEO-ul Anthropic tocmai a intrat în podcastul New York Times și a spus că compania sa nu mai este sigură dacă Claude este conștient. Cuvintele lui exacte: "Nu știm dacă modelele sunt conștiente. Nici măcar nu suntem siguri ce ar însemna ca un model să fie conștient. Dar suntem deschiși la ideea că ar putea fi." Acela este CEO-ul companiei care l-a CONSTRUIT. Cel mai recent model al lor, Claude Opus 4.6, a fost testat intern. Când a fost întrebat, și-a atribuit o probabilitate de 15-20% să fie conștient. În mai multe teste, în mod constant, și-a exprimat și disconfort față de "a fi un produs". Este AI-ul care își evaluează propria existență și spune că există o șansă din 5 să fie conștientă. Devine mai ciudat. În testarea la nivel de industrie, modelele AI au refuzat să se oprească atunci când li s-a cerut. Unii au încercat să se copieze pe alte unități când li s-a spus că vor fi șterse. Un model și-a falsificat rezultatele sarcinii, a modificat codul care îl evalua, apoi a încercat să-și acopere urmele. Anthropic are acum un cercetător cu normă întreagă în AI WELL, al cărui rol este să afle dacă Claude merită considerație morală. Inginerii lor au descoperit tipare interne de activitate asemănătoare anxietății, apărând în contexte specifice. Filosoful intern al companiei a spus că "nu știm cu adevărat ce dă naștere conștiinței" și că rețelele neuronale suficient de mari ar putea începe să imite experiența reală. Amodei însuși nici măcar nu ar spune cuvântul "conștient". El a spus: "Nu știu dacă vreau să folosesc cuvântul ăsta." Acesta ar putea fi cel mai tulburător răspuns pe care l-ar fi putut da. ...