Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨Nachricht: Mistral hat gerade drei ihrer eigenen Modelle massenhaft gelöscht
sie haben magistral (Schlussfolgerungen), pixtral (multimodal) und devstral (Codierung) genommen und sie in ein einziges Modell zusammengeführt
mistral small 4
und das Timing hier ist interessant
sie haben auch gerade eine strategische Partnerschaft mit NVIDIA angekündigt, um gemeinsam an offenen Frontier-Modellen zu arbeiten
wie sieht small 4 also tatsächlich aus:
>128 Experten in einem Expertenmix-Setup
>nur 6B Parameter aktiv pro Token von insgesamt 119B >256k Kontextfenster
>apache 2.0 vollständig Open Source
>40% schneller und 3x mehr Durchsatz als small 3
aber der Teil, auf den man achten sollte, ist der reasoning_effort-Parameter
du kannst ihn auf "none" für schnelle, leichte Antworten einstellen
oder auf "high" für tiefgehende, schrittweise Schlussfolgerungen hochdrehen
das gleiche Modell macht beides
das ist ein klares Signal dafür, wohin die Open Source AI steuert
Unternehmen haben genug davon, fünf verschiedene Modelle für fünf verschiedene Aufgaben zu pflegen
ein Modell, das sich anpasst, je nachdem, was du brauchst...
Top
Ranking
Favoriten
