🚨Nachricht: Mistral hat gerade drei ihrer eigenen Modelle massenhaft gelöscht sie haben magistral (Schlussfolgerungen), pixtral (multimodal) und devstral (Codierung) genommen und sie in ein einziges Modell zusammengeführt mistral small 4 und das Timing hier ist interessant sie haben auch gerade eine strategische Partnerschaft mit NVIDIA angekündigt, um gemeinsam an offenen Frontier-Modellen zu arbeiten wie sieht small 4 also tatsächlich aus: >128 Experten in einem Expertenmix-Setup >nur 6B Parameter aktiv pro Token von insgesamt 119B >256k Kontextfenster >apache 2.0 vollständig Open Source >40% schneller und 3x mehr Durchsatz als small 3 aber der Teil, auf den man achten sollte, ist der reasoning_effort-Parameter du kannst ihn auf "none" für schnelle, leichte Antworten einstellen oder auf "high" für tiefgehende, schrittweise Schlussfolgerungen hochdrehen das gleiche Modell macht beides das ist ein klares Signal dafür, wohin die Open Source AI steuert Unternehmen haben genug davon, fünf verschiedene Modelle für fünf verschiedene Aufgaben zu pflegen ein Modell, das sich anpasst, je nachdem, was du brauchst...