Visto che nei commenti si legge "pooping everywhere", ho deciso di indagare su cosa stesse succedendo e ho scoperto che si tratta di una vulnerabilità strutturale dell'era AI: l'AI non ha skin in the game. Se il codice presenta bug, se i contenuti vengono diffusi in modo errato, se le decisioni danneggiano le persone, il modello non deve assumersi alcuna responsabilità, il costo di generazione è quasi zero, mentre il costo di verifica è spaventosamente alto. Questo è un'epoca di esplosione produttiva spaventosa, stiamo producendo contenuti, codice e opinioni a un ritmo che supera di gran lunga la capacità di qualsiasi persona di digerirli. Nessuno riesce a stare al passo e nessuno si assume realmente la responsabilità. Il costo di discernere il vero dal falso sta diventando sempre più alto, e alla fine potrebbe essere solo l'AI a poter verificare l'AI. In un'epoca in cui tutto può essere generato in massa, la fiducia diventa più preziosa che mai.