M5 Max er et leketøy til 3 500 dollar det eneste tallet som betyr noe for lokal AI: tokens/sec hva som faktisk betyr noe for LLM-slutning (i rekkefølge): Minnebåndbredde → bestemmer TOK/s VRAM/unified memory → bestemmer modellstørrelsen beregning → spiller knapt noen rolle for slutning 25 tokens/sek på 70B høres imponerende ut, helt til du innser at agentisk AI trenger 100+ for ikke å føles ødelagt M5 er en flott laptop, men ikke servermateriale