Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
Investitore, scrittore, educatore e fan 🐉 di Dragon Ball
🚨 NOTIZIA DELL'ULTIMO MINUTO: Anthropic ha appena utilizzato Claude per trovare 22 vulnerabilità di sicurezza in Firefox.
Non teoria. Non una demo. Vulnerabilità reali. 14 di esse classificate come ad alta gravità.
Questo è quasi un quinto di tutti i bug ad alta gravità di Firefox risolti in tutto il 2025.
In due settimane.
Ecco dove diventa interessante.
Il primo bug ha impiegato a Claude 20 minuti per essere trovato. Una vulnerabilità Use After Free nel motore JavaScript di Firefox, del tipo che consente agli attaccanti di sovrascrivere la memoria con codice malevolo.
Mentre i ricercatori stavano ancora convalidando quel primo bug, Claude aveva già trovato 50 vulnerabilità in più.
Alla fine, aveva esaminato quasi 6.000 file C++ e presentato 112 rapporti. Mozilla ha inviato le correzioni a centinaia di milioni di utenti di Firefox.
Poi hanno testato qualcosa di più spaventoso.
Claude potrebbe effettivamente sfruttare i bug che ha trovato? Non solo trovare la crepa nel muro, ma sfondare la porta?
Hanno eseguito il test centinaia di volte.
Hanno speso 4.000 dollari in crediti API.
Claude ha avuto successo in due casi. Ha costruito un exploit funzionante per il browser da zero.
Il divario tra "trova bug" e "li arma" esiste ancora. Per ora.
Ecco la frase del documento che dovrebbe tenere svegli ogni ingegnere della sicurezza di notte:
"È improbabile che il divario tra le capacità di scoperta delle vulnerabilità dei modelli all'avanguardia e quelle di sfruttamento duri a lungo."
Significa... l'AI è attualmente migliore nell'aiutare i difensori che gli attaccanti. Quella finestra si sta chiudendo.
L'ultima volta che la sicurezza è cambiata così rapidamente, ci sono voluti dieci anni perché l'industria si mettesse al passo. Questa volta abbiamo mesi, forse meno.
La corsa tra attaccanti e difensori potenziati dall'AI è appena diventata la corsa agli armamenti più importante su Internet.
E la maggior parte delle persone non ha idea che stia già accadendo.

110
🚨 NOTIZIA DELL'ULTIMA ORA: Qualcuno ha appena creato una vasta libreria di abilità OpenClaw e l'ha messa su GitHub gratuitamente.
Si chiama Awesome OpenClaw Skills.
Una raccolta curata di capacità pronte all'uso che puoi integrare direttamente negli agenti OpenClaw.
Cosa c'è dentro:
→ Abilità per automazione, ricerca, programmazione e flussi di lavoro
→ Strumenti pronti per estendere OpenClaw all'istante
→ Abilità contribuite dalla comunità che puoi riutilizzare e modificare
→ Esempi che mostrano come costruire le tue abilità
→ Un hub centrale per scoprire nuove capacità di OpenClaw
Invece di costruire ogni strumento da zero…
Puoi semplicemente scegliere un'abilità e inserirla nel tuo agente.
(Link nei commenti)

135
🚨 I ricercatori di Stanford hanno appena rivelato un effetto collaterale strano dell'AI di cui quasi nessuno parla.
Il documento si chiama “Artificial Hivemind.” E il risultato principale è inquietante.
Man mano che i modelli linguistici migliorano, iniziano anche a suonare sempre più simili.
Non solo all'interno di un singolo modello. Tra modelli diversi.
I ricercatori hanno costruito un dataset chiamato INFINITY-CHAT con 26.000 domande aperte reali, cose come scrittura creativa, brainstorming, opinioni e consigli. Domande per le quali non esiste una risposta corretta unica.
In teoria, questi stimoli dovrebbero produrre una grande diversità.
Ma è successo il contrario.
Sono emersi due schemi:
1) Ripetizione intra-modello
Lo stesso modello continua a produrre risposte molto simili tra loro.
2) Omogeneità inter-modello
Modelli completamente diversi generano risposte sorprendentemente simili.
In altre parole:
Invece di migliaia di prospettive uniche…
Stiamo ottenendo le stesse poche idee riciclate più e più volte.
Gli autori chiamano questo “Artificial Hivemind.”
Accade perché la maggior parte dei modelli all'avanguardia è addestrata su dati simili, ottimizzati con modelli di ricompensa simili e allineati utilizzando feedback umano simile.
Quindi anche quando chiedi qualcosa di aperto come:
• “Scrivi una poesia sul tempo”
• “Suggerisci idee creative per startup”
• “Dai consigli sulla vita”
Molti modelli convergono verso la stessa formulazione, metafore e schemi di ragionamento.
L'implicazione spaventosa non riguarda la qualità dell'AI.
Riguarda la cultura.
Se miliardi di persone si affidano agli stessi sistemi per idee, scrittura, brainstorming e pensiero…
L'AI potrebbe lentamente comprimere la diversità del pensiero umano.
Non perché lo stia cercando di fare.
Ma perché i modelli stessi si stanno allontanando verso le stesse risposte.
Questo è il vero rischio evidenziato dal documento.
Non che l'AI diventi più intelligente degli esseri umani.
Ma che tutti iniziano a pensare come la stessa macchina.

96
Principali
Ranking
Preferiti
