Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA heeft Nemotron 3 Super uitgebracht, een 120B (12B actief) open gewichten redeneermodel dat 36 scoort op de Artificial Analysis Intelligence Index met een hybride Mamba-Transformer MoE-architectuur.
We kregen toegang tot dit model voorafgaand aan de lancering en hebben het geëvalueerd op intelligentie, openheid en inferentie-efficiëntie.
Belangrijkste punten
➤ Combineert hoge openheid met sterke intelligentie: Nemotron 3 Super presteert sterk voor zijn grootte en is aanzienlijk intelligenter dan elk ander model met vergelijkbare openheid.
➤ Nemotron 3 Super scoorde 36 op de Artificial Analysis Intelligence Index, +17 punten voor op de vorige Super-release en +12 punten ten opzichte van Nemotron 3 Nano. Vergeleken met modellen in een vergelijkbare groottecategorie plaatst dit het voor gpt-oss-120b (33), maar achter de recent uitgebrachte Qwen3.5 122B A10B (42).
➤ Gefocust op efficiënte intelligentie: we hebben ontdekt dat Nemotron 3 Super hogere intelligentie heeft dan gpt-oss-120b terwijl het ~10% hogere doorvoer per GPU mogelijk maakt in een eenvoudige maar realistische belastingstest.
➤ Vandaag ondersteund voor snelle serverloze inferentie: aanbieders zoals @DeepInfra en @LightningAI bieden dit model bij de lancering aan met snelheden tot 484 tokens per seconde.
Modeldetails
📝 Nemotron 3 Super heeft 120,6B totaal en 12,7B actieve parameters, samen met een contextvenster van 1 miljoen tokens en hybride redeneersondersteuning. Het is gepubliceerd met open gewichten en een permissieve licentie, naast open trainingsdata en methodologie-openbaring.
📐 Het model heeft verschillende ontwerpeigenschappen die efficiënte inferentie mogelijk maken, waaronder het gebruik van hybride Mamba-Transformer en LatentMoE-architecturen, multi-token voorspelling en NVFP4-gequantiseerde gewichten.
🎯 NVIDIA heeft Nemotron 3 Super voorgetraind in (voornamelijk) NVFP4-precisie, maar is overgestapt op BF16 voor post-training. Onze evaluatiescores gebruiken de BF16-gewichten.
🧠 We hebben Nemotron 3 Super getest in zijn hoogste-inspanning redeneerstand ("regulier"), de meest capabele van de drie inferentiemodi van het model (redenaar-uit, lage-inspanning en regulier).

NVIDIA heeft significante pre- en post-training gegevens vrijgegeven, samen met nieuwe uitgebreide trainingsrecepten voor dit model. Deze onthullingen bereiken een score van 83 op de Artificial Analysis Openness Index, achter alleen de zeer open modellen van Ai2 en MBZUAI, en plaatsen Nemotron 3 Super in het meest aantrekkelijke kwadrant voor Openheid en Intelligentie onder zijn gelijken.
Nemotron 3 Super is tot nu toe het meest intelligente model dat ooit is uitgebracht met dit niveau van openheid.

Nemotron 3 Super gebruikte een relatief hoog aantal tokens in onze evaluaties. Het gebruikte 110M output tokens om de evaluaties van de Artificial Analysis Intelligence Index uit te voeren - dit is ongeveer 40% meer dan gpt-oss-120b met hoge redeneerinspanning, maar een ~20% vermindering vergeleken met Nemotron 3 Nano.
Dat zijn aanzienlijk minder tokens dan Anthropic’s Claude Opus 4.6 (max), dat 160M tokens gebruikte, en iets minder dan OpenAI’s GPT-5.4 (xhigh), dat 120M tokens gebruikte.

Met 120B totaal en 12B actieve parameters is Nemotron 3 Super nog relatief klein in vergelijking met andere recente open gewichten modelreleases van top wereldlaboratoria — GLM-5 (744B totaal, 40B actief), Qwen3.5 397B A17B (397B totaal, 17B actief) en Kimi K2.5 (1T totaal, 32B actief) zijn elk 3x tot 8x groter.

NVIDIA richt zich op efficiënte intelligentie voor de Nemotron-familie, en we hebben de inferentieprestaties getest tegen peer-modellen om de impact van de architectuurkeuzes te zien.
We hebben zelfgehoste doorvoertests uitgevoerd over een reeks peer-modellen met een eenvoudige methodologie en workloads die representatief zijn voor veelvoorkomende gebruikssituaties, zoals agentische workflows met een gematigde geschiedenis, RAG-toepassingen of documentverwerking.
In deze test toont Nemotron 3 Super (NVFP4) 11% hogere doorvoer per NVIDIA B200 GPU dan gpt-oss-120b (MXFP4), waardoor Nemotron 3 Super 'boven en naar rechts' geplaatst wordt ten opzichte van gpt-oss-120b. Qwen3.5 122B A10B behaalt +6 punten op de Intelligentie-index vergeleken met Nemotron 3 Super, maar met 40% lagere doorvoer per GPU.
Onze Intelligentie-indexscores voor Nemotron 3 Super zijn geëvalueerd op de BF16-gewichten. We hebben nog niet beoordeeld of er enige impact op de intelligentie is van NVFP4-kwantisatie, maar NVIDIA's interne tests hebben aangetoond dat het NVFP4-model 99,8% mediane nauwkeurigheid behaalde ten opzichte van de BF16-basislijn.
Voor meer details over onze testopstelling en modelconfiguraties, zie ons artikel over Nemotron 3 Super:


Nemotron 3 Super zal vanaf de release beschikbaar zijn via serverless API's van aanbieders zoals Lightning AI en DeepInfra.
We hebben deze eindpunten getest en zien prestaties tot 484 tokens per seconde op onze standaard 10k token invoerwerkbelastingen.
Bij de lancering bevindt Nemotron 3 Super zich in het meest aantrekkelijke kwadrant voor intelligentie en output snelheid onder vergelijkbare collega's.

6,65K
Boven
Positie
Favorieten
