il M5 Max è un giocattolo da 3.500 dollari l'unico numero che conta per l'AI locale: token/sec ciò che conta realmente per l'inferenza LLM (in ordine): larghezza di banda della memoria → determina tok/s VRAM/memoria unificata → determina la dimensione del modello calcolo → conta poco per l'inferenza 25 token/sec su 70B sembra impressionante finché non ti rendi conto che l'AI agentica ha bisogno di 100+ per non sembrare rotta M5 è un ottimo laptop, ma non è materiale da server