Das M5 Max ist ein 3.500 $ Spielzeug die einzige Zahl, die für lokale KI zählt: tokens/Sekunde was für LLM-Inferenz tatsächlich zählt (in der Reihenfolge): Speicherbandbreite → bestimmt tok/s VRAM/einheitlicher Speicher → bestimmt die Modellgröße Rechenleistung → spielt für die Inferenz kaum eine Rolle 25 tokens/Sekunde bei 70B klingt beeindruckend, bis man realisiert, dass agentische KI 100+ benötigt, um nicht kaputt zu wirken Das M5 ist ein großartiges Laptop, aber nicht für Server geeignet