Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA on julkaissut Nemotron 3 Superin, 120B (12B aktiivisen) avoimen painotuksen päättelymallin, joka saa Artificial Analysis Intelligence Indexissä pisteet 36 hybridi-Mamba-Transformer MoE -arkkitehtuurilla
Saimme pääsyn tähän malliin ennen julkaisua ja arvioimme sitä älykkyyden, avoimuuden ja päättelytehokkuuden osalta.
Keskeiset huomiot
➤ Yhdistää korkean avoimuuden ja vahvan älykkyyden: Nemotron 3 Super suoriutuu vahvasti kokoonsa nähden ja on huomattavasti älykkäämpi kuin mikään muu vastaavan avoimuuden malli
➤ Nemotron 3 Super sai 36 pistettä Artificial Analysis Intelligence Indexissä, +17 pistettä edellä edellistä Super-julkaisua ja +12 pistettä Nemotron 3 Nanolta. Verrattuna samankokoisiin malleihin, tämä sijoittaa sen gpt-oss-120b:n (33) edelle, mutta hiljattain julkaistun Qwen3.5 122B A10B:n (42) jälkeen.
➤ Keskittyen tehokkaaseen älykkyyteen: havaitsimme, että Nemotron 3 Superilla on korkeampi älykkyys kuin gpt-oss-120b:llä, samalla kun se mahdollistaa ~10 % suuremman läpäisykyvyn GPU:ta kohden yksinkertaisessa mutta realistisessa kuormitustestissä
➤ Tuettu tänään nopeaan palvelimettomaan päättelyyn: palveluntarjoajat kuten @DeepInfra ja @LightningAI palvelevat tätä mallia julkaisun yhteydessä jopa 484 tokenin sekunnissa nopeudella
Mallin yksityiskohdat
📝 Nemotron 3 Superilla on yhteensä 120,6 miljardia ja aktiivisia parametreja 12,7 miljardia sekä 1 miljoonan tokenin kontekstiikkuna ja hybridipäättelytuki. Se julkaistaan avoimilla painotuksilla ja sallivalla lisenssillä, sekä avoimen koulutusdatan ja menetelmien julkistuksen ohella
📐 Mallissa on useita suunnitteluominaisuuksia, jotka mahdollistavat tehokkaan päättelyn, mukaan lukien hybridi-Mamba-Transformer- ja LatentMoE-arkkitehtuurit, monitunnisteen ennustaminen ja NVFP4-kvantisoitujen painojen käyttö
🎯 NVIDIA esikoulutti Nemotron 3 Superin (pääosin) NVFP4-tarkkuudella, mutta siirtyi BF16:een jatkokoulutuksen vuoksi. Arviointipisteissämme käytetään BF16-painoja
🧠 Testasimme Nemotron 3 Superia sen suurimman vaivan päättelytilassa ("tavallinen"), joka on mallin kolmesta päättelytilasta kykenevin (päättely-pois, vähävaivainen ja tavallinen)

NVIDIA julkaisi merkittäviä esi- ja jälkikoulutustietoja sekä uusia kattavia koulutusreseptejä tälle mallille. Nämä paljastukset nousevat Artificial Analysis Openness Indexissä sijalle 83, jääden vain Ai2:n ja MBZUAI:n erittäin avoimien mallien jälkeen, ja sijoittavat Nemotron 3 Superin houkuttelevimpaan neljännekseen avoimuuden ja älykkyyden osalta vertaisistaan.
Nemotron 3 Super on ylivoimaisesti älykkäin malli, joka on koskaan julkaistu tällä avoimuudella.

Nemotron 3 Super käytti suhteellisen paljon tokeneita arvioinneissamme. Se käytti 110M output tokeneita Artificial Analysis Intelligence Index -arviointien suorittamiseen – tämä on noin 40 % enemmän kuin gpt-oss-120b, jossa on korkea päättelykyky, mutta ~20 % vähennys verrattuna Nemotron 3 Nanoon.
Se on merkittävästi vähemmän tokeneita kuin Anthropicin Claude Opus 4.6 (maksimissa), joka käytti 160 miljoonaa tokenia, ja hieman vähemmän kuin OpenAI:n GPT-5.4 (xhigh), joka käytti 120 miljoonaa tokenia.

Yhteensä 120B ja 12B aktiivisilla parametreilla Nemotron 3 Super on edelleen suhteellisen pieni verrattuna muihin viimeaikaisiin avoimen painon mallijulkaisuihin johtavista globaaleista laboratorioista — GLM-5 (yhteensä 744B aktiivinen, 40B aktiivinen), Qwen3.5 397B A17B (397B yhteensä, 17B aktiivinen) ja Kimi K2.5 (1T yhteensä, 32B aktiivinen) ovat kukin 3–8 kertaa suurempia.

NVIDIA keskittyy tehokkaaseen älykkyyteen Nemotron-perheelle, ja testasimme päättelykykyä vertaismalleissa nähdäksemme arkkitehtuurivalintojen vaikutuksen.
Suoritimme itseisännöityjä läpimenotestejä erilaisissa vertaismalleissa yksinkertaisella menetelmällä, jossa työkuormat edustavat yleisiä käyttötapauksia, kuten agenttityönkulkuja kohtuullisella historialla, RAG-sovelluksia tai dokumenttien käsittelyä.
Tässä testissä Nemotron 3 Super (NVFP4) näyttää 11 % suuremman läpimenon NVIDIA B200 -näytönohjainta kohden kuin gpt-oss-120b (MXFP4), mikä sijoittaa Nemotron 3 Superin 'ylös ja oikealle' verrattuna gpt-oss-120b:hen. Qwen3.5 122B A10B saavuttaa +6 pistettä älykkyysindeksissä verrattuna Nemotron 3 Superiin, mutta 40 % alhaisemmalla läpäisykyvyllä per GPU.
Älykkyysindeksin pisteet Nemotron 3 Superille arvioitiin BF16-painoilla. Emme ole vielä arvioineet, onko NVFP4-kvantisoinnilla mitään älykkyysvaikutusta, mutta NVIDIA:n sisäinen testaus osoitti, että NVFP4-malli saavutti 99,8 %:n mediaanitarkkuuden suhteessa BF16:n lähtöarvoon.
Lisätietoja testausasetuksistamme ja mallikonfiguraatioistamme löydät artikkelistamme Nemotron 3 Superista:


Nemotron 3 Super on saatavilla julkaisustaan lähtien palvelimettomina API-rajapintoina palveluntarjoajilta kuten Lightning AI ja DeepInfra.
Testasimme näitä päätepisteitä ja näimme suorituskyvyn nousevan jopa 484 tokeniin sekunnissa tavallisilla 10k token-syöttökuormillamme.
Lanseerauksessa Nemotron 3 Super sijoittuu älykkyyden ja ulostulonopeuden osalta houkuttelevimpaan neljännekseen verrattuna vastaaviin kilpailijoihin.

6,63K
Johtavat
Rankkaus
Suosikit
