Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Professeur de mathématiques @ UCI. Explorer ce que l’IA peut (et ne peut pas) faire en mathématiques.
Grok 4.20 (Beta) améliore la borne inférieure de 9,1 % sur le périmètre gaussien des ensembles convexes en deux minutes.
C'est quelque chose qui m'a été signalé par Xinyuan Xie. En 1993, Keith Ball a montré que le périmètre gaussien d'un corps convexe dans l'espace euclidien n-dimensionnel est borné par le haut par 4n^{1/4}. En ce qui concerne la borne inférieure, Ball a montré que pour un cube (de taille appropriée), le périmètre peut croître comme \sqrt{\log(n)}. Il y avait donc un écart pendant un certain temps quant à savoir quelle borne est précise, jusqu'en 2003, lorsque, dans un bel article, Fedor Nazarov a montré qu'à l'exemple d'un polyèdre aléatoire (l'intersection de nombreux demi-espaces aléatoires), la borne inférieure peut croître comme C n^{1/4}, avec C=\exp(-5/4)=0.286…. De plus, Nazarov a également amélioré la constante 4 dans la borne supérieure (la remplaçant par 0,64) lorsque n est grand. Ces bornes sont restées inégalées jusqu'à récemment, lorsque, en 2019, Martin Raic a réussi à améliorer le facteur constant de la borne supérieure de 0,64 à 0,59.
Grok 4.20 (Beta), en optimisant plus soigneusement la construction de Nazarov, a réussi à améliorer la constante de la borne inférieure de 0,286 à 0,3126. Je trouve cela surprenant même si cela ne fait que jouer avec les techniques de l'article de Nazarov, car très récemment, Nadimpalli--Pascale (2025) a publié un préprint où, avec une approche différente, ils ont récupéré la borne inférieure de Nazarov avec le même facteur constant 0,286….
Grok a été très généreux dans sa réponse : il a dit que l'amélioration qu'il a fournie suit le même argument que celui de Nazarov ``ligne par ligne'', alors que lorsque j'ai demandé à d'autres modèles (autres que Grok) de vérifier la revendication de Grok, ils ont été d'accord sur tout sauf cette partie ; ils ont dit que l'amélioration n'est pas vraiment ``ligne par ligne'' :D.
Enfin, je ne dirais pas que Nazarov a manqué cette amélioration. Le connaissant depuis longtemps, je suis assez confiant qu'il est courant pour lui de sacrifier des constantes optimales pour l'élégance algébrique.
Pourquoi tout cela est-il intéressant ? Avoir le contrôle du périmètre gaussien permet de contrôler les queues de Fourier des fonctions caractéristiques de ces ensembles, ce qui conduit à contrôler la complexité temporelle des algorithmes d'apprentissage PAC et agnostique pour cette famille (voir Klivans--O’Donnell--Servedio).
Références :
Lien de chat avec Grok 4.20 (Beta).
Keith Ball. Le problème isopérimétrique inverse pour la mesure gaussienne. Géométrie discrète et computationnelle, 10:411–420, 1993.
Adam Klivans, Ryan O’Donnell et Rocco A Servedio. Apprendre des concepts géométriques via la surface gaussienne. Dans Proc. 49e Symposium IEEE sur les Fondements de l'informatique (FOCS), pages 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. Sur le périmètre gaussien maximal des ensembles convexes, revisité. Préprint (2025)
Fedor Nazarov. Sur le périmètre maximal d'un ensemble convexe dans R^n par rapport à une mesure gaussienne. Dans Aspects géométriques de l'analyse fonctionnelle (2001-2002) pages 169–187. Notes de cours en mathématiques, Volume 1807, Springer, 2003
Martin Raicz. Un théorème de Berry–Esseen multivarié avec des constantes explicites. Bernoulli 25(4A), 2019, 2824–2853

208
Avertissement : J'avais donné un accès anticipé à la version bêta interne de Grok 4.20
Il a trouvé une nouvelle fonction de Bellman pour l'un des problèmes sur lesquels je travaillais avec mon étudiant N. Alpay.
Le problème se réduit à identifier la fonction maximale point par point U(p,q) sous deux contraintes et à comprendre le comportement de U(p,0).
Dans notre article, nous avons prouvé que U(p,0)\geq I(p), où I(p) est le profil isopérimétrique gaussien, I(p) ~ p\sqrt{log(1/p)} lorsque p ~ 0.
Après ~5 minutes, Grok 4.20 a produit une formule explicite U(p,q) = E \sqrt{q^2+\tau}, où \tau est le temps de sortie du mouvement brownien de (0,1) en partant de p. Cela donne U(p,0)=E\sqrt{\tau} ~ p log(1/p) lorsque p ~ 0, une amélioration en racine carrée dans le facteur logarithmique.
Quelle est la signification de ce résultat ? Cela ne vous dira pas comment changer le monde demain. Plutôt, cela donne un petit pas vers la compréhension de ce qui se passe avec les moyennes des analogues stochastiques des dérivées (variation quadratique) des fonctions booléennes : jusqu'à quel point peuvent-elles être petites ?
Plus précisément, cela donne une borne inférieure précise sur la norme L1 de la fonction carrée dyadique appliquée aux fonctions indicatrices 1_A des ensembles A \subset [0,1].
Dans mon tweet précédent sur la fonction de Takagi, nous avons vu que la borne inférieure précise sur ||S_1(1_A)||_1 coïncide miraculeusement avec la fonction de Takagi de |A| qui (de manière surprenante pour moi) est liée à l'hypothèse de Riemann. Ici, nous obtenons une borne inférieure précise sur ||S_2(1_A)||_1 donnée par E \sqrt{\tau}, où le mouvement brownien commence à |A|. Cette fonction appartient à la famille des profils de type isopérimétrique, mais contrairement à la fonction fractale de Takagi, elle est lisse et ne coïncide pas avec le profil isopérimétrique gaussien.
Enfin, en analyse harmonique, il est connu que la fonction carrée n'est pas bornée dans L^1. La question ici était plus une question de curiosité : comment explose-t-elle exactement lorsqu'elle est testée sur des fonctions booléennes 1_A. Auparavant, la meilleure borne inférieure connue était |A|(1-|A|) (Burkholder—Davis—Gandy). Dans notre article, nous avons obtenu |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Cette nouvelle fonction de Bellman de Grok donne |A| (1-|A|) \log(1/(|A|(1-|A|))) et cette borne est en fait précise.

475
Meilleurs
Classement
Favoris
