La ley de Hsu: la energía mental requerida para entender y desmentir las tonterías de un modelo es inversamente proporcional a la sustancia de lo que está diciendo. En mi campo de trabajo, los co-científicos de IA suenan más inteligentes precisamente cuando las ideas subyacentes son las menos claras.