Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vous pouvez maintenant transformer des casques EEG bon marché en scanners cérébraux de qualité laboratoire.
Et c'est open-source.
ZUNA est un modèle de fondation de 380 millions de paramètres qui reconstruit les signaux cérébraux manquants à partir de données EEG partielles.
Il fonctionne avec n'importe quelle configuration d'électrodes, des casques grand public aux systèmes de recherche à 256 canaux, sans réentraînement.
Il vous permet de :
- Reconstruire des canaux EEG manquants à partir de données éparses
- Dénouer des signaux corrompus
- Prédire de nouveaux canaux à partir de simples coordonnées d'électrodes
- Gérer des configurations d'électrodes arbitraires
Le modèle utilise un autoencodeur de diffusion avec un backbone de transformateur. Il a été entraîné sur 2 millions d'heures de canaux à travers 208 ensembles de données en utilisant un entraînement de diffusion masquée et des embeddings spatiaux 4D.
Cela permet au modèle de comprendre la géométrie physique du placement des électrodes. Chaque signal de canal est compressé en tokens, puis le modèle encode les positions x, y, z ainsi que le temps en composants d'attention séparés.
Les données EEG étaient bloquées dans une ère pré-modèle de fondation. Les ensembles de données sont petits, fragmentés entre les institutions, collectés selon différents protocoles.
La solution standard pour les canaux manquants est l'interpolation par spline sphérique, essentiellement un lissage spatial. Cela fonctionne plutôt bien lorsque quelques canaux sont perdus, mais cela s'effondre lorsque vous perdez plus de 75 % de vos données.
ZUNA surpasse cette référence en apprenant de réels motifs d'activité cérébrale au lieu de simplement lisser entre les points. L'écart se creuse de manière spectaculaire à des taux de perte élevés, exactement là où vous en avez le plus besoin.
La pensée en texte se positionne comme la prochaine grande modalité d'IA après le langage, la vision et l'audio. Mais vous ne pouvez pas construire cet avenir sur des données qui sont jetées parce que quelques électrodes ont échoué.
Le modèle est entièrement open source sous Apache 2.0, fonctionne sur des GPU grand public et fonctionne sur CPU pour de nombreuses tâches.
Meilleurs
Classement
Favoris
