Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
  • GSMINFO Serwis
poniedziałek, 22 grudnia, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
  • GSMINFO Serwis
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

Nvidia wprowadza nową generację modeli Nemotron

od Pan z ApplePlanet
22 grudnia, 2025
w Sztuczna inteligencja AI
0
Nvidia wprowadza nową generację modeli Nemotron
465
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Nvidia ogłosiła wprowadzenie nowej generacji otwartych modeli AI z serii Nemotron — Nemotron 3 Nano, Super oraz Ultra — oraz udostępnienie ogromnych zestawów danych szkoleniowych: trzy biliony tokenów do wstępnego treningu i 18 milionów próbek po-treningowych. Firma równocześnie udostępnia narzędzia ułatwiające dalsze dopasowywanie modeli, w tym 10 nowych środowisk „gym” oraz otwartoźródłowe biblioteki do uczenia wzmacniającego, co ma ułatwić deweloperom trenowanie modeli pod własne zastosowania.

Stopniowa dostępność i podstawowe warianty

Model Nano jest dostępny już teraz na platformie HuggingFace, natomiast wersje Super i Ultra mają się pojawić w pierwszej połowie 2026 roku. Nemotron 3 powstał z myślą o zróżnicowanych zastosowaniach: Nano do zadań ukierunkowanych i efektywnego wdrożenia, Super do wieloagentowych zastosowań, a Ultra do najbardziej złożonych scenariuszy wymagających najwyższych możliwości obliczeniowych.

Architektura MoE i wpływ na wydajność

Nemotron 3 to pierwsza rodzina Nemotronów wykorzystująca technikę mixture of experts (MoE). Dzięki niej model „rozłącza” liczbę parametrów od kosztu obliczeniowego — aktywna jest tylko podzbiór parametrów w danym kroku, co obniża koszty i przyspiesza działanie. Przykładowo Nemotron 3 Nano ma 30 miliardów parametrów, z których w praktyce aktywnych jest 3 miliardy. Nvidia podaje, że ten wariant jest do 4 razy bardziej wydajny niż odpowiadający mu Nemotron 2 Nano i generuje do 60% mniej tokenów „rozumowania” (reasoning tokens) przy tworzeniu odpowiedzi, co dodatkowo zmniejsza koszty użytkowania.

Model Nano wyróżnia się też niezwykle dużym oknem kontekstowym — do 1 miliona tokenów — co pozwala przetwarzać znacznie dłuższe konteksty niż w większości otwartoźródłowych modeli dostępnych dziś na rynku.

Charakterystyka wariantów Super i Ultra

Nemotron 3 Super to model o 100 miliardach parametrów z 10 miliardami aktywnych ekspertów, zaprojektowany z myślą o zastosowaniach wieloagentowych. Nemotron 3 Ultra osiąga rozmiar 500 miliardów parametrów, z 50 miliardami aktywnych — ma oferować najwyższą jakość rozumowania i nadaje się do najbardziej wymagających aplikacji, ale jego uruchamianie będzie też najdroższe.

Wyniki i porównania

Nvidia nie dostarczyła prasy szczegółowych, niezależnych benchmarków przed czasem embargo; firma powołała się na raport organizacji Artificial Analysis, która według Nvidii oceniła Nemotron 3 jako „najbardziej otwarty i wydajny w swojej klasie pod względem wielkości”, z czołową dokładnością. Publicznie dostępne wykresy pokazują, że Nemotron 3 Nano plasuje się w podobnym pułapie co modele takie jak GPT-OSS-20B (wysoka wersja), Qwen 3 30B i Qwen 3 VL 32B, przy znacznie wyższej liczbie tokenów na sekundę. Model Apriel Thinking firmy ServiceNow jest według tych danych wolniejszy, ale nieco wyżej na indeksie „inteligencji”.

Dostępność w chmurze i u dostawców

Dzięki otwartoźródłowej licencji deweloperzy, którzy dysponują odpowiednim sprzętem, będą mogli uruchomiać te modele lokalnie jako usługę Nvidia NIM. Jednocześnie Nemotron 3 ma trafić do oferty komercyjnych platform i publicznych chmur: jest już dostępny (lub ma trafić) m.in. w Amazon Bedrock (serwerless), a wkrótce również na Google Cloud oraz u dostawców takich jak Coreweave, Nebius, Nscale i Yotta.

Usługi inferencyjne planujące oferować Nemotron 3 to m.in. Baseten, Deepinfra, Fireworks, FriendliAI, OpenRouter i Together AI. Platformy enterprise i narzędziowe, które zadeklarowały wsparcie, obejmują m.in. Couchbase, DataRobot, H2O.ai, JFrog, Lambda i UiPath.

Dlaczego Nvidia tworzy własne modele

Choć Nvidia jest powszechnie znana jako producent akceleratorów sprzętowych, jej praca nad własnymi modelami rozpoczęła się już w 2019 roku projektem Megatron-LM. Marka Nemotron pojawiła się w 2024 roku, kiedy firma udostępniła model rozumujący oparty na Meta Llama 3.1. Od tamtej pory Nvidia wypuściła kilka wersji Nemotronów o różnych rozmiarach i optymalizacjach, zwykle na stosunkowo liberalnych licencjach, co pozwoliło firmom takim jak ServiceNow na dalsze dopasowanie modeli do własnych potrzeb.

Podczas konferencji prasowej Kari Briski, wiceprezes ds. generatywnej AI dla przedsiębiorstw w Nvidii, wyjaśniała, że jednym z motywów tworzenia własnych modeli jest maksymalne wykorzystanie możliwości sprzętu firmy zarówno w treningu, jak i inferencji. „Nie chodzi jedynie o konkurencję — budujemy je dla siebie i udostępniamy ekosystemowi, by można było na nich polegać i rozwijać je dalej” — mówiła. Briski dodała, że Nvidia traktuje LLM-y jak biblioteki: należy je udostępniać do inspekcji, naprawy błędów i ulepszania, ponieważ większe zaangażowanie deweloperów wzmacnia cały ekosystem.

Nowa rodzina Nemotron 3 ma więc nie tylko zwiększyć możliwości techniczne modeli do zastosowań agentowych, lecz także posłużyć jako otwarta baza, na której deweloperzy i firmy będą mogli budować, testować i dostosowywać własne rozwiązania.

Share186Tweet116
Poprzedni artykuł

Fani twierdzą, że Battlefield 6 używa grafik generowanych przez AI jak Call of Duty

Następny artykuł

Metabolity we krwi lepiej przewidują powikłania ciąży niż BMI

Następny artykuł
Metabolity we krwi lepiej przewidują powikłania ciąży niż BMI

Metabolity we krwi lepiej przewidują powikłania ciąży niż BMI

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Nowe otwarte narzędzie mapuje sieci regulacji genów w nowotworach 22 grudnia, 2025
  • Metabolity we krwi lepiej przewidują powikłania ciąży niż BMI 22 grudnia, 2025
  • Nvidia wprowadza nową generację modeli Nemotron 22 grudnia, 2025
  • Fani twierdzą, że Battlefield 6 używa grafik generowanych przez AI jak Call of Duty 22 grudnia, 2025
  • Pakiet Nintendo Switch 2 z Mario Kart rzekomo wycofany, cena obniżona o 50 USD 22 grudnia, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
  • GSMINFO Serwis