🚨Noticias: Mistral acaba de eliminar masivamente tres de sus propios modelos tomaron magistral (razonamiento), pixtral (multimodal) y devstral (programación) y los fusionaron en un solo modelo mistral pequeño 4 y el momento aquí es interesante también acaban de anunciar una asociación estratégica con NVIDIA para co-desarrollar modelos de código abierto de frontera entonces, ¿cómo se ve realmente el pequeño 4?: >128 expertos en una configuración de mezcla de expertos >solo 6B de parámetros activos por token de un total de 119B >256k ventana de contexto >apache 2.0 completamente de código abierto >40% más rápido y 3x más rendimiento que el pequeño 3 pero la parte que vale la pena prestar atención es el parámetro reasoning_effort puedes configurarlo en "ninguno" para respuestas rápidas y ligeras o aumentarlo a "alto" para un razonamiento profundo paso a paso el mismo modelo haciendo ambas cosas esta es una señal clara de hacia dónde se dirige la IA de código abierto las empresas han terminado de mantener cinco modelos diferentes para cinco tareas diferentes un modelo que se adapta según lo que necesites que haga...