Na targach CES w Las Vegas zaprezentowano platformę Rubin — nową architekturę dla superkomputerów AI, złożoną z sześciu współpracujących układów, zaprojektowaną z myślą o skalowalnych wdrożeniach. Rubin ma przyspieszać rozwój agentowych systemów AI, modeli typu mixture‑of‑experts (MoE) oraz rozumowanie na długich kontekstach, a podstawą jej wdrożeń pozostaje projekt DGX SuperPOD, przeznaczony dla środowisk badawczych i korporacyjnych.
Co wnosi platforma Rubin
Platforma Rubin łączy sześć kluczowych elementów: procesor NVIDIA Vera CPU, akcelerator Rubin GPU, przełącznik NVLink 6, kartę sieciową ConnectX‑9 SuperNIC, procesor DPU BlueField‑4 oraz przełącznik Ethernet Spectrum‑6. Zastosowano tu podejście codesign — równoległy projekt sprzętu i połączeń sieciowych — które ma przyspieszać trening modeli i obniżać koszty generowania tokenów podczas inferencji. To szczególnie istotne w sytuacji, gdy modele rosną w rozmiarze i wymagają większego kontekstu do rozumowania.
Pięć przełomowych usprawnień
- Sześć generacja NVLink — przepływność do 3,6 TB/s na GPU i 260 TB/s w konfiguracji rackowej Vera Rubin NVL72, co ma obsłużyć rozproszone obciążenia MoE i długie konteksty.
- NVIDIA Vera CPU — 88 autorskich rdzeni Olympus zgodnych z Armv9.2 oraz ultraszybkie połączenie NVLink‑C2C, zaprojektowane dla wydajnej „fabryki AI”.
- NVIDIA Rubin GPU — do 50 petaflopsów NVFP4 mocy obliczeniowej do inferencji, zawierający trzeciej generacji Transformer Engine z akcelerowaną sprzętowo kompresją.
- Trzecia generacja Confidential Computing — Vera Rubin NVL72 to pierwsza platforma w skali racka oferująca zabezpieczenia poufnych danych działające jednocześnie w domenach CPU, GPU i NVLink.
- Druga generacja silnika RAS — monitorowanie stanu w czasie rzeczywistym, odporność na błędy i proaktywna konserwacja obejmujące GPU, CPU i NVLink; modułowe, pozbawione kabli tace serwisowe umożliwiają trzykrotnie szybsze naprawy.
W efekcie te usprawnienia mają umożliwić nawet 10‑krotne zmniejszenie kosztu tokenów przy inferencji w porównaniu z poprzednią generacją — kluczowe osiągnięcie w kontekście tańszego uruchamiania dużych modeli produkcyjnych.
DGX SuperPOD — wzorzec skalowania Rubin
DGX SuperPOD pozostaje wzorcem dla wdrożeń skalowanych platformy Rubin. Systemy oparte na Rubin będą integrować m.in. systemy DGX Vera Rubin NVL72 i DGX Rubin NVL8, procesory BlueField‑4 DPU dla bezpiecznej, programowalnej infrastruktury, platformę Inference Context Memory Storage do nowej generacji inferencji, karty ConnectX‑9 SuperNIC, przełączniki Quantum‑X800 InfiniBand i Spectrum‑X Ethernet oraz oprogramowanie Mission Control do automatyzacji orkiestracji i operacji AI.
W konfiguracji DGX SuperPOD z ośmioma systemami DGX Vera Rubin NVL72 znajduje się 576 Rubin GPU, co przekłada się na 28,8 exaflopsów wydajności w NVFP4 oraz 600 TB szybkiej pamięci. Pojedynczy system DGX Vera Rubin NVL72 łączy 36 Vera CPU, 72 Rubin GPU i 18 BlueField‑4 DPU, oferując spójną przestrzeń pamięci i obliczeń dla całego racka. Dzięki 260 TB/s łącznej przepustowości NVLink eliminuje to konieczność dzielenia modeli i pozwala traktować rack jako jeden, spójny silnik AI.
Alternatywnie, DGX SuperPOD z systemami DGX Rubin NVL8 obejmuje 64 takich systemów z 512 Rubin GPU w sumie. Konfiguracje NVL8 wykorzystują chłodzenie cieczą i procesory x86, oferując bardziej dostępny punkt wejścia do epoki Rubina dla projektów od fazy rozwoju do produkcji. Każdy system DGX Rubin NVL8 wyposażony w osiem Rubin GPU i szóstą generację NVLink deklaruje 5,5‑krotnie wyższą liczbę flopów NVFP4 w porównaniu z systemami poprzedniej generacji Blackwell.
Sieć dla fabryk AI
Rubin redefiniuje centrum danych jako „fabrykę AI”, zapewniając zintegrowane rozwiązania sieciowe: przełączniki Ethernet Spectrum‑6, przełączniki InfiniBand Quantum‑X800, DPU BlueField‑4 oraz karty ConnectX‑9 SuperNIC zaprojektowane do obsługi najbardziej wymagających obciążeń. Zestaw end‑to‑end 800 Gb/s oferuje dwie dedykowane ścieżki: Quantum‑X800 InfiniBand dla najniższych opóźnień i najwyższej wydajności w klastrach dedykowanych AI (z obsługą SHARP v4 i adaptacyjnym routowaniem, które odciążają operacje zbiorcze) oraz Spectrum‑X Ethernet oparty na Spectrum‑6 i ConnectX‑9, zapewniający przewidywalne skalowanie dla ruchu „east‑west” charakterystycznego dla obciążeń AI.
Takie podejście do projektowania sieci ma zapobiegać zatykaniu się infrastruktury przy rosnącej skali modeli i utrzymywać sieć jako czynnik przyspieszający, a nie ograniczający rozwój „gigawatowych” fabryk AI.
Oprogramowanie i operacje
Narzędzia programowe mają kluczowe znaczenie dla sprawnego uruchamiania i eksploatacji dużych instalacji. Oprogramowanie Mission Control, przeznaczone do operacji centrów danych i orkiestracji systemów DGX, będzie dostępne także dla systemów Rubin, umożliwiając automatyzację zarządzania infrastrukturą, konfigurację wdrożeń, integrację z obiektami oraz zarządzanie klastrami i zadaniami. Dzięki zintegrowanym funkcjom możliwe jest lepsze zarządzanie chłodzeniem i zasilaniem, szybsze wykrywanie wycieków, autonomiczne odzyskiwanie i dostęp do najnowszych optymalizacji efektywnościowych, co zwiększa produktywność fabryki AI.
Systemy DGX wspierają również platformę oprogramowania NVIDIA AI Enterprise oraz mikrousługi NIM, w tym obsługę rodzin modelowych Nemotron‑3, bibliotek i zasobów niezbędnych do budowy aplikacji generatywnych i multimodalnych.
Co to oznacza dla przemysłu
Platforma Rubin oraz wzorzec DGX SuperPOD wytyczają drogę dla nowej generacji infrastruktury przemysłowej AI: systemów zdolnych do rozumowania na tysiącach kroków i dostarczania inteligencji przy znacznie niższych kosztach operacyjnych. To szansa dla organizacji na budowę kolejnej fali modeli granicznych, systemów multimodalnych i aplikacji agentowych, które wymagają zarówno ogromnej mocy obliczeniowej, jak i spójnej pamięci oraz niezawodnej sieci.
Systemy NVIDIA DGX SuperPOD z DGX Vera Rubin NVL72 lub DGX Rubin NVL8 mają być dostępne w drugiej połowie tego roku.

