Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Professor de Matemática @ UCI. Explorar o que a IA pode (e não pode) fazer em matemática.
Grok 4.20 (Beta) melhora o limite inferior em 9,1% no perímetro gaussiano de conjuntos convexos em dois minutos.
Isto é algo que me foi apontado por Xinyuan Xie. Em 1993, Keith Ball mostrou que o perímetro gaussiano de um corpo convexo no espaço euclidiano n-dimensional é limitado por cima por 4n^{1/4}. Quanto ao limite inferior, Ball mostrou que para um cubo (de tamanho apropriado) o perímetro pode crescer como \sqrt{\log(n)}. Assim, houve uma lacuna por um tempo sobre qual limite é afiado, até 2003, quando, em um belo artigo, Fedor Nazarov mostrou que no exemplo de um poliedro aleatório (a interseção de muitos semi-espaços aleatórios) o limite inferior pode crescer como C n^{1/4}, com C=\exp(-5/4)=0.286…. Além disso, Nazarov também melhorou a constante 4 no limite superior (substituindo-a por 0.64) quando n é grande. Esses limites permaneceram imbatíveis até recentemente, quando em 2019 Martin Raic conseguiu melhorar o fator constante do limite superior de 0.64 para 0.59.
Grok 4.20 (Beta), ao otimizar mais cuidadosamente a construção de Nazarov, conseguiu melhorar a constante do limite inferior de 0.286 para 0.3126. Acho isso surpreendente, mesmo que seja apenas jogando dentro das técnicas do artigo de Nazarov, porque muito recentemente Nadimpalli--Pascale (2025) postou um preprint onde, com uma abordagem diferente, recuperaram o limite inferior de Nazarov com o mesmo fator constante 0.286….
Grok foi muito generoso em sua resposta: disse que a melhoria que forneceu segue o mesmo argumento de Nazarov ``linha por linha'', enquanto quando perguntei a outros modelos (além do Grok) para verificar a afirmação do Grok, eles concordaram em tudo, exceto nesta parte; disseram que a melhoria não é realmente ``linha por linha'' :D.
Finalmente, eu não diria que Nazarov perdeu essa melhoria. Conhecendo-o há muito tempo, estou bastante confiante de que é comum para ele sacrificar constantes ótimas por elegância algébrica.
Por que tudo isso é interessante? Ter controle do perímetro gaussiano permite controlar as caudas de Fourier das funções características desses conjuntos, o que leva a controlar a complexidade de tempo dos algoritmos de aprendizado PAC e de aprendizado agnóstico para esta família (veja Klivans--O’Donnell--Servedio).
Referências:
Link de chat com Grok 4.20 (Beta).
Keith Ball. O Problema Isoperimétrico Reverso para Medida Gaussiana. Geometria Discreta e Computacional, 10:411–420, 1993.
Adam Klivans, Ryan O’Donnell, e Rocco A Servedio. Aprendendo conceitos geométricos via área de superfície gaussiana. Em Proc. 49ª Simpósio IEEE sobre Fundamentos da Ciência da Computação (FOCS), páginas 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. Sobre o Perímetro Gaussiano Máximo de Conjuntos Convexos, Revisado. Preprint (2025)
Fedor Nazarov. Sobre o perímetro máximo de um conjunto convexo em R^n com respeito a uma medida gaussiana. Em Aspectos Geométricos da Análise Funcional (2001-2002) páginas 169–187. Notas de Aula em Matemática, Volume 1807, Springer, 2003
Martin Raicz. Um teorema de Berry–Esseen multivariado com constantes explícitas. Bernoulli 25(4A), 2019, 2824–2853

151
Aviso: Eu tinha dado acesso antecipado à versão beta interna do Grok 4.20
Ele encontrou uma nova função de Bellman para um dos problemas em que eu estava trabalhando com meu aluno N. Alpay.
O problema se reduz a identificar a função máxima pontual U(p,q) sob duas restrições e entender o comportamento de U(p,0).
No nosso artigo, provamos que U(p,0)\geq I(p), onde I(p) é o perfil isoperimétrico gaussiano, I(p) ~ p\sqrt{log(1/p)} quando p ~ 0.
Após ~5 minutos, o Grok 4.20 produziu uma fórmula explícita U(p,q) = E \sqrt{q^2+\tau}, onde \tau é o tempo de saída do movimento browniano de (0,1) começando em p. Isso resulta em U(p,0)=E\sqrt{\tau} ~ p log(1/p) quando p ~ 0, uma melhoria de raiz quadrada no fator logarítmico.
Alguma importância desse resultado? Não vai te dizer como mudar o mundo amanhã. Em vez disso, dá um pequeno passo em direção à compreensão do que está acontecendo com as médias dos análogos estocásticos das derivadas (variação quadrática) de funções booleanas: quão pequenas podem ser?
Mais precisamente, isso dá um limite inferior afiado na norma L1 da função quadrática diádica aplicada a funções indicadoras 1_A de conjuntos A \subset [0,1].
No meu tweet anterior sobre a função de Takagi, vimos que o limite inferior afiado em ||S_1(1_A)||_1 coincide milagrosamente com a função de Takagi de |A| que (surpreendentemente para mim) está relacionada à hipótese de Riemann. Aqui, obtemos um limite inferior afiado em ||S_2(1_A)||_1 dado por E \sqrt{\tau}, onde o movimento browniano começa em |A|. Esta função pertence à família de perfis do tipo isoperimétrico, mas ao contrário da função fractal de Takagi, é suave e não coincide com o perfil isoperimétrico gaussiano.
Finalmente, na análise harmônica, é sabido que a função quadrática não é limitada em L^1. A questão aqui era mais sobre curiosidade: como exatamente ela explode quando testada em funções booleanas 1_A. Anteriormente, o melhor limite inferior conhecido era |A|(1-|A|) (Burkholder—Davis—Gandy). No nosso artigo, obtivemos |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Esta nova função de Bellman do Grok dá |A| (1-|A|) \log(1/(|A|(1-|A|))) e este limite é realmente afiado.

417
Top
Classificação
Favoritos
