Lei de Hsu: a energia mental necessária para entender e chamar a besteira de um modelo é inversamente proporcional à substância do que ele está dizendo. No meu ramo, co-cientistas de IA parecem mais inteligentes justamente quando as ideias subjacentes são menos claras