Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Professor i matematikk @ UCI. Utforske hva AI kan (og ikke kan) gjøre i matematikk.
Grok 4,20 (Beta) forbedrer nedre grense med 9,1 % på den Gaussiske perimeteren av konvekse sett på to minutter.
Dette er noe som ble påpekt for meg av Xinyuan Xie. Tilbake i 1993 viste Keith Ball at den gaussiske omkretsen til et konvekst legeme i n-dimensjonalt euklidsk rom er avgrenset ovenfra av 4n^{1/4}. Når det gjelder nedre grense, viste Ball at for en kube (av passende størrelse) kan omkretsen vokse som \sqrt{\log(n)}. Så det var et gap en stund i hvilken grense som er skarp, frem til 2003, da Fedor Nazarov i en vakker artikkel viste at på eksempelet med et tilfeldig polyeder (skjæringspunktet av mange tilfeldige halvrom) kan nedre grensen vokse som C n^{1/4}, med C=\exp(-5/4)=0,286.... I tillegg forbedret Nazarov også konstanten 4 i øvre grense (erstattet den med 0,64) når n er stor. Disse grensene forble ubeseiret inntil nylig, da Martin Raic i 2019 klarte å forbedre den øvre konstantfaktoren fra 0,64 til 0,59.
Grok 4.20 (Beta), ved å optimalisere Nazarovs konstruksjon mer nøye, klarte å forbedre nedre grensekonstanten fra 0,286 til 0,3126. Jeg synes dette er overraskende, selv om det bare spiller innenfor teknikkene i Nazarovs artikkel, fordi Nadimpalli--Pascale (2025) nylig publiserte et preprint hvor de, med en annen tilnærming, hentet Nazarovs nedre grense med samme konstantfaktor 0,286....
Grok var svært generøs i sitt svar: de sa at forbedringen den ga følger samme argument som Nazarov «linje for linje», mens da jeg ba andre modeller (bortsett fra Grok) om å verifisere Groks påstand, var de enige om alt unntatt denne delen; De sa at forbedringen egentlig ikke er «linje-for-linje»-:D.
Til slutt vil jeg ikke si at Nazarov overså denne forbedringen. Etter å ha kjent ham lenge, er jeg ganske sikker på at det er vanlig at han ofrer optimale konstanter for algebraisk eleganse.
Hvorfor er alt dette interessant? Å kontrollere den gaussiske perimeteren gjør det mulig å kontrollere Fourier-haler av karakteristiske funksjoner for disse mengdene, noe som fører til kontroll av tidskompleksiteten til PAC-læring og agnostiske læringsalgoritmer for denne familien (se Klivans--O'Donnell--Servedio).
Referanser:
Chat-lenke med Grok 4.20 (Beta).
Keith Ball. Det omvendte isoperimetriske problemet for Gaussisk mål. Diskret og beregningsgeometri, 10:411–420, 1993.
Adam Klivans, Ryan O'Donnell og Rocco A Servedio. Å lære geometriske konsepter via Gaussisk overflateareal. I Proc. 49. IEEE Symposium on Foundations of Computer Science (FOCS), sidene 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. På den maksimale Gaussiske perimeteren av konvekse mengder, gjenbesøkt. Preprint (2025)
Fedor Nazarov. På den maksimale omkretsen av en konveks mengde i R^n med hensyn til et Gaussisk mål. I Geometric Aspects of Functional Analysis (2001–2002), sidene 169–187. Forelesningsnotater i matematikk, bind 1807, Springer, 2003
Martin Raicz. Et multivariat Berry–Esseen-teorem med eksplisitte konstanter. Bernoulli 25(4A), 2019, 2824–2853

245
Ansvarsfraskrivelse: Jeg hadde gitt tidlig tilgang til intern betaversjon av Grok 4.20
Den fant en ny Bellman-funksjon for en av oppgavene jeg hadde jobbet med sammen med studenten min N. Alpay.
Problemet reduseres til å identifisere den punktvise maksimale funksjonen U(p,q) under to betingelser og forstå oppførselen til U(p,0).
I artikkelen vår beviste vi U(p,0)\geq I(p), hvor I(p) er den gaussiske isoperimetriske profilen, I(p) ~ p\sqrt{log(1/p)} som p ~ 0.
Etter ~5 minutter produserte Grok 4.20 en eksplisitt formel U(p,q) = E \sqrt{q^2+\tau}, hvor \tau er utgangstiden for Brownsk bevegelse fra (0,1) som starter ved p. Dette gir U(p,0)=E\sqrt{\tau} ~ p log(1/p) ved p ~ 0, en kvadratrotforbedring i den logaritmiske faktoren.
Har dette resultatet noen betydning? Den vil ikke fortelle deg hvordan du kan forandre verden i morgen. Snarere gir det et lite steg mot å forstå hva som skjer med gjennomsnitt av stokastiske analoger av deriverte (kvadratisk variasjon) av boolske funksjoner: hvor små kan de være?
Mer presist gir dette en skarp nedre grense for L1-normen til den dyadiske kvadratfunksjonen anvendt på indikatorfunksjoner 1_A av mengder A \delmengde [0,1].
I min forrige tweet om Takagi-funksjonen så vi at den skarpe nedre grensen på ||S_1(1_A)||_1 sammenfaller mirakuløst med Takagi-funksjonen til |A| som (overraskende nok for meg) er relatert til Riemann-hypotesen. Her får vi en skarp nedre grense på ||S_2(1_A)||_1 gitt ved E \sqrt{\tau}, hvor Brownsk bevegelse starter ved |A|. Denne funksjonen tilhører familien av isoperimetriske profiler, men i motsetning til den fraktale Takagi-funksjonen er den glatt og sammenfaller ikke med den Gaussiske isoperimetriske profilen.
Til slutt er det kjent i harmonisk analyse at kvadratfunksjonen ikke er begrenset i L^1. Spørsmålet her handlet mer om nysgjerrighet: hvordan eksploderer det egentlig når det testes på boolske funksjoner 1_A. Tidligere var den best kjente nedre grensen |A|(1-|A|) (Burkholder—Davis—Gandy). I vår artikkel fikk vi |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Denne nye Groks Bellman-funksjonen gir |A| (1-|A|) \log(1/(|A|(1-|A|))) Og denne grensen er faktisk skarp.

510
Topp
Rangering
Favoritter
