🚨 Pesquisadores de Stanford acabaram de expor um efeito colateral estranho da IA que quase ninguém está comentando. O artigo se chama “Hivemind Artificial.” E a descoberta central é inquietante. À medida que os modelos de linguagem melhoram, eles também começam a soar cada vez mais iguais. Não apenas dentro de um único modelo. Através de diferentes modelos. Os pesquisadores construíram um conjunto de dados chamado INFINITY-CHAT com 26.000 perguntas abertas reais, coisas como escrita criativa, brainstorming, opiniões e conselhos. Perguntas onde não há uma única resposta correta. Em teoria, esses prompts deveriam produzir uma enorme diversidade. Mas o oposto aconteceu. Dois padrões apareceram: 1) Repetição intra-modelo O mesmo modelo continua produzindo respostas muito semelhantes em diferentes execuções. 2) Homogeneidade inter-modelo Modelos completamente diferentes geram respostas surpreendentemente semelhantes. Em outras palavras: Em vez de milhares de perspectivas únicas… Estamos recebendo as mesmas poucas ideias recicladas repetidamente. Os autores chamam isso de “Hivemind Artificial.” ...