Sztuczna inteligencja w czasie rzeczywistym staje się nowym filarem branży medialnej i rozrywkowej, otwierając drzwi do angażujących doświadczeń widza oraz inteligentnego tworzenia treści. Na czołówkę tych przemian wysuwa się NVIDIA, prezentując swoje najnowsze osiągnięcia podczas prestiżowego wydarzenia NAB Show w Las Vegas. Impreza odbywa się od 5 do 9 kwietnia i gromadzi liderów rynku mediów, nadawców, streamerów oraz producentów treści z całego świata.
W centrum uwagi stoi platforma NVIDIA Blackwell, która stanowi podstawę innowacyjnego ekosystemu Media2. Dzięki niej twórcy treści zyskują dostęp do potężnych narzędzi takich jak NIM (NVIDIA Inference Microservices) — mikroserwisy AI — czy gotowe plany działania w postaci tzw. AI Blueprints. Te ostatnie umożliwiają automatyczną analizę transmisji na żywo, tworzenie podsumowań wideo, wyszukiwanie kontekstowe i wiele innych funkcjonalności, które zmieniają sposób, w jaki producenci przetwarzają wideo.
Szczególne zainteresowanie budzi holistyczna platforma Holoscan for Media — rozwiązanie w czasie rzeczywistym, stworzone z myślą o zastosowaniach transmisyjnych na żywo. Pokaz możliwości Holoscan można obejrzeć na stoisku firmy Dell. Równocześnie NVIDIA prezentuje zestawy narzędzi do analityki i przeszukiwania wideo, które pozwalają producentom dostosować i zautomatyzować procesy związane z rozpoznawaniem kluczowych momentów i strukturyzowaniem treści z nagrań.
Ważnym punktem programu są partnerstwa z gigantami rynku technologii i mediów. Amazon Web Services wspólnie z NVIDIA prezentuje na żywo produkcję chmurową połączoną z wyścigami e-sportowymi, gdzie uczestnicy mogą analizować swoje wyniki za pomocą zaawansowanego AI. Pokaz demonstruje także potencjał generatywnej sztucznej inteligencji w sferze transmisji sportowej.
Beamr, firma specjalizująca się w przetwarzaniu wideo, wykorzystuje procesory graficzne NVIDIA do przyspieszenia adopcji kodeku AV1. Dzięki technologii NVENC możliwe jest stworzenie wydajnych, oszczędnych i skalowalnych rozwiązań do konwersji i transmisji materiałów multimedialnych w doskonałej jakości.
Dell z kolei demonstruje, jak współpraca z firmami Autodesk i Avid oraz wykorzystanie wysokowydajnych komputerów Dell Pro Max pozwala na wdrażanie zaawansowanych efektów wizualnych, metadanych AI w czasie rzeczywistym czy przyspieszoną postprodukcję. Przestrzeń wystawiennicza pełna jest przykładów użycia GPU NVIDIA do przetwarzania wideo, analizy scenariuszy, czy wielokanałowej współpracy redakcyjnej.
HP prezentuje nowe stacje robocze stacjonarne i mobilne wyposażone w układy NVIDIA RTX PRO Blackwell, dedykowane wymagającym zadaniom AI. Jednocześnie zaprezentowano nowe rozwiązania ZGX Nano i ZGX Fury, współtworzone z NVIDIA i ukierunkowane na dynamiczne środowiska produkcji treści.
Firma Qvest pokazała dwie nowatorskie aplikacje oparte na AI — narzędzia identyfikujące kluczowe momenty w transmisjach z wielu kamer oraz kreator AI do wyciągania danych ze złożonych materiałów wideo i dokumentacji. Całość opiera się na silnikach NVIDIA NeMo, Holoscan dla Mediów oraz mikroserwisach NIM. Umożliwia to budowanie dostosowanych agentów AI bez konieczności programowania.
Na szczególną uwagę zasługuje firma Monks, która ogłosiła pakiet produktów do analizowania treści w czasie rzeczywistym, inteligentnej kompresji obrazu oraz interakcji z archiwami wideo. Wspólny projekt z TwelveLabs pozwoli monetaryzować treści przy jednoczesnym wprowadzaniu zaawansowanych modeli rozumienia języka wizualnego.
Supermicro zademonstrowało pełne środowisko do edycji wideo oparte na stacji roboczej AS-531AW-TC oraz karcie NVIDIA RTX PRO 6000. Całość łączy się z oprogramowaniem RAVEL Orchestrate, które automatyzuje zarządzanie klastry AI i umożliwia płynne zarządzanie zadaniami.
Wśród kluczowych rozwiązań pojawiły się także nowości od Speechmatics — technologia rozpoznawania mowy w czasie rzeczywistym, która obsługuje wiele języków i została zintegrowana z napędem obliczeniowym NVIDIA, co czyni ją idealną do zastosowań w transkrypcjach i napisach na żywo.
Telestream zaprezentował innowacyjny system monitorowania fal formujących w modelu natywnie chmurowym. Dzięki Holoscan i architekturze mikroserwisów możliwe jest odwzorowanie możliwości centrum nadawczego bez tradycyjnej infrastruktury.
TwelveLabs z kolei koncentruje się na dostarczeniu zaawansowanych modeli rozpoznawania treści wideo, szkolonych w chmurze DGX, które pozwalają na wyjątkowo skuteczne analizowanie dużych zbiorów materiałów multimedialnych w branży sportowej i rozrywkowej.
Nie sposób pominąć pokazu od VAST Data, który we współpracy z NHL zaprezentował InsightEngine — system analizujący archiwa 550 000 godzin nagrań z meczów hokeja. Dzięki integracji z NVIDIA AI Enterprise, aplikacja skupia się na natychmiastowym przeszukiwaniu i dynamicznej edycji klipów na potrzeby sponsorów oraz personalizacji treści dla fanów.
Vizrt pokazał rozwiązania takie jak Reality Connect, umożliwiające tworzenie refleksji postaci, cieni czy śledzenia ruchów 3D w czasie rzeczywistym. Wszystko to dzięki integracji z NVIDIA Maxine i kartami graficznymi przyspieszającymi obliczenia. Wśród nowości znalazły się także efekty cząsteczkowe, sterowanie gestami oraz korekta spojrzenia AI w ramach systemu TriCaster Vizion.
Na zakończenie, V-Nova prezentuje doświadczenia 6DoF (sześć stopni swobody) w wirtualnej rzeczywistości oparte na treściach Sharkarma i Weightless. Równocześnie pokazuje optymalizację AI wspieraną jednostkami NVIDIA, ukierunkowaną na przesył strumieniowy VR, wideo i analitykę w chmurze.
Zebrane na jednej przestrzeni technologiczne innowacje pokazują, że sztuczna inteligencja wchodzi w nową erę. Współdziałanie AI i rozwiązań opartych na GPU nie tylko zwiększa efektywność, ale także otwiera przed mediami i rozrywką zupełnie nowe możliwości tworzenia, analizowania i dostarczania treści odbiorcom.