A Alibaba lançou 4 novos modelos Qwen3.5, de 0,8B a 9B. O 9B (Raciocínio, 32 no Índice de Inteligência) é o modelo mais inteligente sob os parâmetros 10B, e o 4B (Raciocínio, 27) o mais inteligente sob 5B, mas ambos usam tokens de saída de 200M+ para rodar o Índice de Inteligência @Alibaba_Qwen expandiu a família Qwen3.5 com quatro modelos menores e densos: o 9B (Raciocínio, 32 no Índice de Inteligência), 4B (Raciocínio, 27), 2B (Raciocínio, 16) e 0,8B (Raciocínio, 9). Esses complementam os modelos maiores 397B, 27B, 122B A10B e 35B A3B lançados no início deste mês. Todos os modelos são licenciados pelo Apache 2.0, suportam contexto 262K, incluem suporte nativo a visão e utilizam a mesma abordagem híbrida unificada de pensamento/não pensamento que o restante da família Qwen3.5 Principais resultados de benchmarking para as variantes de raciocínio: ➤ O 9B e o 4B são os modelos mais inteligentes em suas respectivas classes de tamanho, à frente de todos os outros modelos sob os parâmetros 10B. Qwen3.5 9B (32) pontua aproximadamente o dobro dos modelos mais próximos abaixo do 10B: Falcon-H1R-7B (16) e NVIDIA Nemotron Nano 9B V2 (Reasoning, 15). Qwen3.5 4B (27) supera todos esses pontos, apesar de ter cerca de metade dos parâmetros. Todos os quatro pequenos modelos Qwen3.5 estão na fronteira de Pareto do gráfico de Inteligência vs. Parâmetros Totais ➤ A geração Qwen3.5 representa um aumento de inteligência material em relação ao Qwen3 em todos os tamanhos de modelo abaixo de 10B, com ganhos maiores em contagens totais maiores de parâmetros. Comparando variantes de raciocínio: Qwen3.5 9B (32) está 15 pontos à frente do Qwen3 VL 8B (17), o 4B (27) ganha 9 pontos sobre Qwen3 4B 2507 (18), o 2B (16) está 3 pontos à frente do Qwen3 com 1,7 bilhão (estimado em 13), e o 0,8B (9) ganha 2,5 pontos sobre Qwen3 0,6B (6,5). ➤ Todos os quatro modelos usam tokens de saída de 230-390M para rodar o Índice de Inteligência, significativamente mais do que tanto os irmãos maiores Qwen3.5 quanto os predecessores Qwen3. Qwen3.5 2B usou ~390M tokens de saída, 4B usou ~240M, 0,8B usou ~230M e 9B usou ~260M. Para contextualizar, o muito maior Qwen3.5 27B usava 98M e o navio principal 397B usava 86M. Essas contagem de tokens também superam a maioria dos modelos frontier: Gemini 3.1 Pro Preview (57M), GPT-5.2 (xhigh, 130M) e GLM-5 Reasoning (109M) ➤ AA-Oniciência é uma fraqueza relativa, com taxas de alucinação de 80-82% para os 4B e 9B. Qwen3.5 4B pontuação -57 em AA-Oniciência, com taxa de alucinação de 80% e precisão de 12,8%. Qwen3.5 9B nota -56 com 82% de alucinação e 14,7% de precisão. Esses são marginalmente melhores que seus predecessores Qwen3 (Qwen3 4B 2507: -61, 84% alucinações, 12,7% de precisão), com a melhoria impulsionada principalmente por taxas de alucinação mais baixas do que por maior precisão. ➤ Os modelos Qwen3.5 sub-10B combinam alta inteligência com visão nativa em uma escala antes inacessível. No MMMU-Pro (raciocínio multimodal), Qwen3.5 9B obtém 69,2% e 4B 65,4%, à frente de Qwen3 VL 8B (56,6%), Qwen3 VL 4B (52,0%) e Ministral 3 8B (46,0%). O Qwen3.5 0.8B pontua 25,8%, o que é notável para um modelo abaixo de 1 bilhão Outras informações: ➤ Janela de contexto: 262K tokens ➤ Licença: Apache 2.0 ➤ Quantização: Pesos nativos são BF16. A Alibaba não lançou quantizações GPTQ-Int4 de primeira mão para esses modelos pequenos, embora tenha lançado para os modelos maiores da família Qwen3.5 lançados anteriormente (27B, 35B-A3B, 122B-A10B, 397B-A17B). Na quantização de 4 bits, todos os quatro modelos são acessíveis em hardware de consumo ➤ Disponibilidade: No momento da publicação, não existem APIs serverless de primeira mão ou de terceiros hospedando esses modelos
A geração do Qwen3.5 representa uma mudança radical na inteligência de modelos pequenos em relação ao Qwen3. O 9B ganha 15 pontos sobre Qwen3 VL 8B (17 a 32), o 4B ganha 9 pontos sobre Qwen3 4B 2507 (18 a 27), o 2B ganha 3 pontos sobre Qwen3 1,7 bilhão (13 a 16), e o 0,8B ganha 2,5 pontos sobre Qwen3 0,6B (6,5 a 9).
Os ganhos de inteligência vêm ao custo de um alto uso de tokens em comparação com os pares. Todos os quatro modelos Qwen3.5 abaixo de 10B usam tokens de saída de 230M+ para rodar o Índice de Inteligência – isso é significativamente maior do que a maioria dos modelos fronteiriça, bem como dos predecessores Qwen3
Os modelos Qwen3.5, 9B e 4B são os modelos multimodais mais inteligentes sob parâmetros 15B. No MMMU-Pro, Qwen3.5 9B (69%) e 4B (65%) lideram todos os modelos abaixo do 15B
Divisão dos resultados individuais para os 4 modelos
Compare a família Qwen3.5 com outros modelos líderes em:
8,92K