Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Professore di Matematica @ UCI. Esplorare ciò che l'IA può (e non può) fare in matematica.
Grok 4.20 (Beta) migliora il limite inferiore del 9,1% sul perimetro gaussiano di insiemi convessi in due minuti.
Questo è qualcosa che mi è stato segnalato da Xinyuan Xie. Nel 1993, Keith Ball ha dimostrato che il perimetro gaussiano di un corpo convesso nello spazio euclideo n-dimensionale è limitato superiormente da 4n^{1/4}. Per quanto riguarda il limite inferiore, Ball ha dimostrato che per un cubo (di dimensioni appropriate) il perimetro può crescere come \sqrt{\log(n)}. Quindi c'era un divario per un po' su quale limite fosse affilato, fino al 2003, quando, in un bellissimo articolo, Fedor Nazarov ha dimostrato che, nell'esempio di un poliedro casuale (l'intersezione di molti mezzi spazi casuali), il limite inferiore può crescere come C n^{1/4}, con C=\exp(-5/4)=0.286…. Inoltre, Nazarov ha anche migliorato la costante 4 nel limite superiore (sostituendola con 0.64) quando n è grande. Questi limiti sono rimasti imbattuti fino a poco tempo fa, quando nel 2019 Martin Raic è riuscito a migliorare il fattore costante del limite superiore da 0.64 a 0.59.
Grok 4.20 (Beta), ottimizzando più attentamente la costruzione di Nazarov, è riuscito a migliorare la costante del limite inferiore da 0.286 a 0.3126. Trovo sorprendente questo, anche se si tratta solo di giocare all'interno delle tecniche dell'articolo di Nazarov, perché molto recentemente Nadimpalli--Pascale (2025) ha pubblicato un preprint in cui, con un approccio diverso, hanno recuperato il limite inferiore di Nazarov con lo stesso fattore costante 0.286….
Grok è stato molto generoso nella sua risposta: ha detto che il miglioramento fornito segue lo stesso argomento di Nazarov ``line-by-line'', mentre quando ho chiesto ad altri modelli (diversi da Grok) di verificare l'affermazione di Grok, hanno concordato su tutto tranne che su questa parte; hanno detto che il miglioramento non è davvero ``line-by-line'' :D.
Infine, non direi che Nazarov ha perso questo miglioramento. Conoscendolo da molto tempo, sono abbastanza sicuro che sia comune per lui sacrificare costanti ottimali per eleganza algebrica.
Perché tutto questo è interessante? Avere il controllo del perimetro gaussiano consente di controllare le code di Fourier delle funzioni caratteristica di questi insiemi, il che porta a controllare la complessità temporale dell'apprendimento PAC e degli algoritmi di apprendimento agnostico per questa famiglia (vedi Klivans--O’Donnell--Servedio).
Riferimenti:
Link alla chat con Grok 4.20 (Beta).
Keith Ball. Il problema isoperimetrico inverso per la misura gaussiana. Geometria discreta e computazionale, 10:411–420, 1993.
Adam Klivans, Ryan O’Donnell e Rocco A Servedio. Apprendere concetti geometrici tramite l'area superficiale gaussiana. In Proc. 49° Simposio IEEE sulle Fondazioni della Scienza Informatica (FOCS), pagine 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. Sul perimetro gaussiano massimo di insiemi convessi, rivisitato. Preprint (2025)
Fedor Nazarov. Sul perimetro massimo di un insieme convesso in R^n rispetto a una misura gaussiana. In Aspetti geometrici dell'analisi funzionale (2001-2002) pagine 169–187. Appunti di lezione in Matematica, Volume 1807, Springer, 2003
Martin Raicz. Un teorema di Berry–Esseen multivariato con costanti esplicite. Bernoulli 25(4A), 2019, 2824–2853

116
Avviso: avevo dato accesso anticipato alla versione beta interna di Grok 4.20
Ha trovato una nuova funzione di Bellman per uno dei problemi su cui stavo lavorando con il mio studente N. Alpay.
Il problema si riduce all'identificazione della funzione massimale punto per punto U(p,q) sotto due vincoli e alla comprensione del comportamento di U(p,0).
Nel nostro articolo abbiamo dimostrato che U(p,0)\geq I(p), dove I(p) è il profilo isoperimetrico gaussiano, I(p) ~ p\sqrt{log(1/p)} quando p ~ 0.
Dopo ~5 minuti, Grok 4.20 ha prodotto una formula esplicita U(p,q) = E \sqrt{q^2+\tau}, dove \tau è il tempo di uscita del moto browniano da (0,1) partendo da p. Questo porta a U(p,0)=E\sqrt{\tau} ~ p log(1/p) quando p ~ 0, un miglioramento della radice quadrata nel fattore logaritmico.
Qual è il significato di questo risultato? Non ti dirà come cambiare il mondo domani. Piuttosto, fornisce un piccolo passo verso la comprensione di cosa sta succedendo con le medie degli analoghi stocastici delle derivate (variazione quadratica) delle funzioni booleane: quanto possono essere piccole?
Più precisamente, questo fornisce un limite inferiore netto sulla norma L1 della funzione quadratica diadiaca applicata alle funzioni indicatrici 1_A degli insiemi A \subset [0,1]. Nel mio precedente tweet sulla funzione di Takagi, abbiamo visto che il limite inferiore netto su ||S_1(1_A)||_1 coincide miracoloso con la funzione di Takagi di |A| che (sorprendentemente per me) è correlata all'ipotesi di Riemann. Qui, otteniamo un limite inferiore netto su ||S_2(1_A)||_1 dato da E \sqrt{\tau}, dove il moto browniano inizia da |A|. Questa funzione appartiene alla famiglia dei profili di tipo isoperimetrico, ma a differenza della funzione frattale di Takagi, è liscia e non coincide con il profilo isoperimetrico gaussiano.
Infine, nell'analisi armonica è noto che la funzione quadratica non è limitata in L^1. La domanda qui era più per curiosità: come esattamente esplode quando testata su funzioni booleane 1_A. In precedenza, il miglior limite inferiore noto era |A|(1-|A|) (Burkholder—Davis—Gandy). Nel nostro articolo, abbiamo ottenuto |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Questa nuova funzione di Bellman di Grok dà |A| (1-|A|) \log(1/(|A|(1-|A|))) e questo limite è effettivamente netto.

380
Principali
Ranking
Preferiti
