Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Professor i matematik @ UCI. Utforska vad AI kan (och inte kan) göra i matematik.
Grok 4,20 (Beta) förbättrar den nedre gränsen med 9,1 % på den Gaussiska perimetern av konvexa mängder på två minuter.
Detta är något som Xinyuan Xie påpekade för mig. Redan 1993 visade Keith Ball att den gaussiska omkretsen av en konvex kropp i n-dimensionellt euklidiskt rum är begränsad uppifrån av 4n^{1/4}. När det gäller den nedre gränsen visade Ball att för en kub (av lämplig storlek) kan omkretsen växa som \sqrt{\log(n)}. Så det fanns ett glapp ett tag i vilken gräns som är skarp, fram till 2003, då Fedor Nazarov i en vacker artikel visade att i exemplet med en slumpmässig polyeder (snittet av många slumpmässiga halvrum) kan den nedre gränsen växa som C n^{1/4}, med C=\exp(-5/4)=0,286.... Dessutom förbättrade Nazarov även konstanten 4 i övre gränsen (ersatte den med 0,64) när n är stor. Dessa bounds förblev obesegrade tills nyligen, då Martin Raic 2019 lyckades förbättra den övre konstantfaktorn från 0,64 till 0,59.
Grok 4,20 (Beta) lyckades, genom att optimera Nazarovs konstruktion mer noggrant, förbättra den nedre gränskonstanten från 0,286 till 0,3126. Jag finner detta förvånande även om det bara är en lek inom Nazarovs artikels tekniker, eftersom Nadimpalli--Pascale (2025) nyligen publicerade en preprint där de, med en annan metod, återfick Nazarovs nedre gräns med samma konstantfaktor 0,286....
Grok var mycket generös i sitt svar: den sade att förbättringen den gav följer samma argument som Nazarov ''rad-för-rad'', medan när jag bad andra modeller (förutom Grok) att verifiera Groks påstående, höll de med om allt utom denna del; De sa att förbättringen egentligen inte är "rad-för-rad"-:D.
Slutligen skulle jag inte säga att Nazarov missade denna förbättring. Efter att ha känt honom länge är jag ganska säker på att det är vanligt att han offrar optimala konstanter för algebraisk elegans.
Varför är allt detta intressant? Att kontrollera den Gaussiska perimetern gör det möjligt att kontrollera Fouriersvansar av karakteristiska funktioner för dessa mängder, vilket leder till att tidskomplexiteten för PAC-inlärning och agnostiska inlärningsalgoritmer för denna familj styrs (se Klivans--O'Donnell--Servedio).
Referenser:
Chattlänk med Grok 4.20 (Beta).
Keith Ball. Det omvända isoperimetriska problemet för Gaussisk mått. Diskret och beräkningsgeometri, 10:411–420, 1993.
Adam Klivans, Ryan O'Donnell och Rocco A Servedio. Att lära sig geometriska koncept via Gaussisk yta. I proc. 49:e IEEE Symposium on Foundations of Computer Science (FOCS), sidorna 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. på den maximala Gaussiska perimetern av konvexa mängder, återbesökt. Preprint (2025)
Fedor Nazarov. På den maximala omkretsen av en konvex mängd i R^n med avseende på ett Gaussiskt mått. I Geometric Aspects of Functional Analysis (2001–2002), sidorna 169–187. Föreläsningsanteckningar i matematik, volym 1807, Springer, 2003
Martin Raicz. En multivariat Berry–Esseen-sats med explicita konstanter. Bernoulli 25(4A), 2019, 2824–2853

247
Ansvarsfriskrivning: Jag hade gett tidig tillgång till den interna betaversionen av Grok 4.20
Den hittade en ny Bellman-funktion för ett av problemen jag arbetat med tillsammans med min student N. Alpay.
Problemet reduceras till att identifiera den punktvisa maximala funktionen U(p,q) under två begränsningar och förstå beteendet hos U(p,0).
I vår artikel bevisade vi U(p,0)\geq I(p), där I(p) är den Gaussiska isoperimetriska profilen, I(p) ~ p\sqrt{log(1/p)} som p ~ 0.
Efter ~5 minuter producerade Grok 4.20 en explicit formel U(p,q) = E \sqrt{q^2+\tau}, där \tau är utgångstiden för Brownsk rörelse från (0,1) med start vid p. Detta ger U(p,0)=E\sqrt{\tau} ~ p log(1/p) vid p ~ 0, en kvadratrotförbättring av den logaritmiska faktorn.
Finns det någon betydelse av detta resultat? Den kommer inte att tala om för dig hur du ska förändra världen imorgon. Snarare ger den ett litet steg mot att förstå vad som händer med medelvärden av stokastiska analoger till derivator (kvadratisk variation) av boolesk funktion: hur små kan de vara?
Mer precist ger detta en skarp nedre gräns för L1-normen av den dyadiska kvadratfunktionen tillämpad på indikatorfunktioner 1_A av mängder A \delmängd [0,1].
I min tidigare tweet om Takagi-funktionen såg vi att den skarpa nedre gränsen på ||S_1(1_A)||_1 sammanfaller mirakulöst med Takagifunktionen av |A| vilket (överraskande för mig) är relaterat till Riemannhypotesen. Här får vi en skarp nedre gräns för ||S_2(1_A)||_1 givet av E \sqrt{\tau}, där Brownsk rörelse börjar vid |A|. Denna funktion tillhör familjen av isoperimetriska profiler, men till skillnad från den fraktala Takagi-funktionen är den slät och sammanfaller inte med den Gaussiska isoperimetriska profilen.
Slutligen är det i harmonisk analys känt att kvadratfunktionen inte är begränsad i L^1. Frågan här handlade mer om nyfikenhet: hur exploderar det exakt när det testas på booleska funktioner 1_A. Tidigare var den mest kända nedre gränsen |A|(1-|A|) (Burkholder—Davis—Gandy). I vår artikel fick vi |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Denna nya Groks Bellman-funktion ger |A| (1-|A|) \log(1/(|A|(1-|A|))) Och denna gräns är faktiskt skarp.

513
Topp
Rankning
Favoriter
