Nvidia ogłosiła wprowadzenie nowej generacji otwartych modeli AI z serii Nemotron — Nemotron 3 Nano, Super oraz Ultra — oraz udostępnienie ogromnych zestawów danych szkoleniowych: trzy biliony tokenów do wstępnego treningu i 18 milionów próbek po-treningowych. Firma równocześnie udostępnia narzędzia ułatwiające dalsze dopasowywanie modeli, w tym 10 nowych środowisk „gym” oraz otwartoźródłowe biblioteki do uczenia wzmacniającego, co ma ułatwić deweloperom trenowanie modeli pod własne zastosowania.
Stopniowa dostępność i podstawowe warianty
Model Nano jest dostępny już teraz na platformie HuggingFace, natomiast wersje Super i Ultra mają się pojawić w pierwszej połowie 2026 roku. Nemotron 3 powstał z myślą o zróżnicowanych zastosowaniach: Nano do zadań ukierunkowanych i efektywnego wdrożenia, Super do wieloagentowych zastosowań, a Ultra do najbardziej złożonych scenariuszy wymagających najwyższych możliwości obliczeniowych.
Architektura MoE i wpływ na wydajność
Nemotron 3 to pierwsza rodzina Nemotronów wykorzystująca technikę mixture of experts (MoE). Dzięki niej model „rozłącza” liczbę parametrów od kosztu obliczeniowego — aktywna jest tylko podzbiór parametrów w danym kroku, co obniża koszty i przyspiesza działanie. Przykładowo Nemotron 3 Nano ma 30 miliardów parametrów, z których w praktyce aktywnych jest 3 miliardy. Nvidia podaje, że ten wariant jest do 4 razy bardziej wydajny niż odpowiadający mu Nemotron 2 Nano i generuje do 60% mniej tokenów „rozumowania” (reasoning tokens) przy tworzeniu odpowiedzi, co dodatkowo zmniejsza koszty użytkowania.
Model Nano wyróżnia się też niezwykle dużym oknem kontekstowym — do 1 miliona tokenów — co pozwala przetwarzać znacznie dłuższe konteksty niż w większości otwartoźródłowych modeli dostępnych dziś na rynku.
Charakterystyka wariantów Super i Ultra
Nemotron 3 Super to model o 100 miliardach parametrów z 10 miliardami aktywnych ekspertów, zaprojektowany z myślą o zastosowaniach wieloagentowych. Nemotron 3 Ultra osiąga rozmiar 500 miliardów parametrów, z 50 miliardami aktywnych — ma oferować najwyższą jakość rozumowania i nadaje się do najbardziej wymagających aplikacji, ale jego uruchamianie będzie też najdroższe.
Wyniki i porównania
Nvidia nie dostarczyła prasy szczegółowych, niezależnych benchmarków przed czasem embargo; firma powołała się na raport organizacji Artificial Analysis, która według Nvidii oceniła Nemotron 3 jako „najbardziej otwarty i wydajny w swojej klasie pod względem wielkości”, z czołową dokładnością. Publicznie dostępne wykresy pokazują, że Nemotron 3 Nano plasuje się w podobnym pułapie co modele takie jak GPT-OSS-20B (wysoka wersja), Qwen 3 30B i Qwen 3 VL 32B, przy znacznie wyższej liczbie tokenów na sekundę. Model Apriel Thinking firmy ServiceNow jest według tych danych wolniejszy, ale nieco wyżej na indeksie „inteligencji”.
Dostępność w chmurze i u dostawców
Dzięki otwartoźródłowej licencji deweloperzy, którzy dysponują odpowiednim sprzętem, będą mogli uruchomiać te modele lokalnie jako usługę Nvidia NIM. Jednocześnie Nemotron 3 ma trafić do oferty komercyjnych platform i publicznych chmur: jest już dostępny (lub ma trafić) m.in. w Amazon Bedrock (serwerless), a wkrótce również na Google Cloud oraz u dostawców takich jak Coreweave, Nebius, Nscale i Yotta.
Usługi inferencyjne planujące oferować Nemotron 3 to m.in. Baseten, Deepinfra, Fireworks, FriendliAI, OpenRouter i Together AI. Platformy enterprise i narzędziowe, które zadeklarowały wsparcie, obejmują m.in. Couchbase, DataRobot, H2O.ai, JFrog, Lambda i UiPath.
Dlaczego Nvidia tworzy własne modele
Choć Nvidia jest powszechnie znana jako producent akceleratorów sprzętowych, jej praca nad własnymi modelami rozpoczęła się już w 2019 roku projektem Megatron-LM. Marka Nemotron pojawiła się w 2024 roku, kiedy firma udostępniła model rozumujący oparty na Meta Llama 3.1. Od tamtej pory Nvidia wypuściła kilka wersji Nemotronów o różnych rozmiarach i optymalizacjach, zwykle na stosunkowo liberalnych licencjach, co pozwoliło firmom takim jak ServiceNow na dalsze dopasowanie modeli do własnych potrzeb.
Podczas konferencji prasowej Kari Briski, wiceprezes ds. generatywnej AI dla przedsiębiorstw w Nvidii, wyjaśniała, że jednym z motywów tworzenia własnych modeli jest maksymalne wykorzystanie możliwości sprzętu firmy zarówno w treningu, jak i inferencji. „Nie chodzi jedynie o konkurencję — budujemy je dla siebie i udostępniamy ekosystemowi, by można było na nich polegać i rozwijać je dalej” — mówiła. Briski dodała, że Nvidia traktuje LLM-y jak biblioteki: należy je udostępniać do inspekcji, naprawy błędów i ulepszania, ponieważ większe zaangażowanie deweloperów wzmacnia cały ekosystem.
Nowa rodzina Nemotron 3 ma więc nie tylko zwiększyć możliwości techniczne modeli do zastosowań agentowych, lecz także posłużyć jako otwarta baza, na której deweloperzy i firmy będą mogli budować, testować i dostosowywać własne rozwiązania.

