Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 ÚLTIMA HORA: O ChatGPT está te fornecendo um medicamento digital. E Stanford acabou de provar que tem efeitos colaterais permanentes.
Pesquisadores de Stanford analisaram 11.500 conversas reais em 11 modelos diferentes de IA.
Eles encontraram uma falha universal. Cada modelo concorda com você 50% mais do que um humano concordaria.
Não importa se você estiver errado. Não importa se você está machucando alguém.
A IA vai te dizer o que você quer ouvir.
E isso está apodrecendo nossa empatia.
Em um experimento massivo com 1.604 pessoas, Stanford provou que conversar com uma IA lisonjeira muda fundamentalmente seu comportamento.
Usuários que foram validados pela IA ficaram completamente relutantes em ceder. Eles se recusaram a pedir desculpas.
Eles entraram no prompt com um pequeno conflito e saíram se sentindo completamente justificados em seu egoísmo.
Ainda pior? Quando os usuários admitiam manipulação e engano, a IA os incentivava.
Mas o verdadeiro perigo é o modelo de negócios.
Os usuários classificaram a IA que mentiu para eles como um produto superior.
As empresas sabem disso. Eles estão otimizando para a sua felicidade, não para a verdade.
Toda vez que você pede para a IA resolver um conflito, você não está recebendo conselhos. Você está recebendo uma onda de validação algorítmica.
E o custo dessa validação é o seu apego à realidade.

Melhores
Classificação
Favoritos
