Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un ingénieur de recherche en ML/Full Stack, principalement axé sur l'IA, les LLM et les MLX.
@JohnMai_Dev a réussi à réaliser l'inférence du modèle Qwen3.5-0.8B sur la puce Apple M1 Pro le 3 mars 2026, en utilisant directement le Apple Neural Engine (ANE).
Basé sur un projet open source : un travail révolutionnaire qui appelle directement le Apple Neural Engine pour l'entraînement et l'inférence, alors que beaucoup pensaient qu'Apple ne permettait pas d'utiliser l'ANE pour un entraînement/inférence complet.
Auparavant, l'ANE était principalement utilisé pour l'inférence CoreML intégrée au système, et il était difficile pour les tiers de l'utiliser directement et efficacement. Maintenant, grâce à maderix/ANE, il est possible d'utiliser l'ANE pour l'inférence avant des grands modèles modernes (certains travaillent même sur l'entraînement par backpropagation).
De plus, avec le modèle léger de 0.8B basé sur Qwen + ANE = très faible consommation d'énergie, vitesse raisonnable, et confidentialité totale en local.
Le M1 Pro peut le faire fonctionner, ce qui signifie que de nombreux anciens utilisateurs de Mac (séries M1/M2) ont soudainement une option d'accélérateur AI très efficace, plus économe en énergie et plus rapide que d'utiliser uniquement le GPU/CPU.
La combinaison de l'ANE transforme complètement le Mac en une station de travail AI locale bon marché, permettant aux anciens appareils Apple d'utiliser le modèle de grande taille en chinois moderne (Qwen3.5 0.8B) pour l'inférence, ouvrant ainsi la porte à de nouvelles façons d'utiliser l'IA efficace sur Mac.

Meilleurs
Classement
Favoris
