🚨 I ricercatori di Stanford hanno appena rivelato un effetto collaterale strano dell'AI di cui quasi nessuno parla. Il documento si chiama “Artificial Hivemind.” E il risultato principale è inquietante. Man mano che i modelli linguistici migliorano, iniziano anche a suonare sempre più simili. Non solo all'interno di un singolo modello. Tra modelli diversi. I ricercatori hanno costruito un dataset chiamato INFINITY-CHAT con 26.000 domande aperte reali, cose come scrittura creativa, brainstorming, opinioni e consigli. Domande per le quali non esiste una risposta corretta unica. In teoria, questi stimoli dovrebbero produrre una grande diversità. Ma è successo il contrario. Sono emersi due schemi: 1) Ripetizione intra-modello Lo stesso modello continua a produrre risposte molto simili tra loro. 2) Omogeneità inter-modello Modelli completamente diversi generano risposte sorprendentemente simili. In altre parole: Invece di migliaia di prospettive uniche… Stiamo ottenendo le stesse poche idee riciclate più e più volte. Gli autori chiamano questo “Artificial Hivemind.” ...