La loi de Hsu : l'énergie mentale requise pour comprendre et dénoncer les balivernes d'un modèle est inversement proportionnelle à la substance de ce qu'il dit. Dans mon domaine, les co-scientifiques en IA semblent les plus intelligents précisément lorsque les idées sous-jacentes sont les moins claires.