Generatywna sztuczna inteligencja (AI) przenosi przemysł na nowy poziom, wymagając coraz bardziej zaawansowanych rozwiązań obliczeniowych. W odpowiedzi na tę potrzebę NVIDIA wspólnie z Amazon Web Services (AWS) oferują innowacyjne mikrousługi NIM, dostępne bezpośrednio na platformie AWS. Te ulepszone narzędzia otwierają nowe możliwości dla developerów w skalowaniu skomplikowanych modeli AI w sposób bardziej wydajny i niższym kosztem.
Rewolucja w AI dzięki współpracy NVIDIA i AWS
Podczas corocznej konferencji AWS re:Invent ogłoszono rozszerzenie współpracy między AWS a NVIDIA, co wprowadza mikrousługi NIM do kluczowych usług AWS AI, takich jak Amazon SageMaker czy Amazon Bedrock. Dzięki tej inicjatywie, deweloperzy zyskują możliwość wdrażania zoptymalizowanych rozwiązań inference AI, które zapewniają szybsze działanie aplikacji generatywnych AI z mniejszym opóźnieniem. Kluczowym elementem tego partnerstwa jest uproszczenie procesu integracji, ponieważ NIM jest teraz dostępne zarówno w AWS Marketplace, jak i w Amazon SageMaker JumpStart, pozwalając na łatwe zastosowanie we własnych projektach.
NVIDIA NIM – Wszechstronne rozwiązanie AI
Platforma NVIDIA NIM, będąca częścią pakietu NVIDIA AI Enterprise, została zaprojektowana z myślą o bezpiecznym, wysokowydajnym wdrażaniu modeli AI na poziomie przedsiębiorstw. Mikrousługi NIM opierają się na solidnych silnikach inference, takich jak NVIDIA Triton Inference Server, TensorRT czy PyTorch, co zapewnia szerokie wsparcie zarówno dla modeli open-source, zaawansowanych modeli NVIDIA AI Foundation, jak i niestandardowych rozwiązań.
NIM można wdrażać na różnych usługach AWS, takich jak Amazon Elastic Compute Cloud (EC2), Amazon Elastic Kubernetes Service (EKS) oraz Amazon SageMaker. Narzędzie to pozwala deweloperom wykorzystać gotowe modele oparte na popularnych architekturach takich jak Meta’s Llama 3, Stability AI’s SDXL czy NVIDIA Nemotron. Ponadto, NVIDIA oferuje bazę ponad 100 zoptymalizowanych mikroserwisów, które można przetestować i dostosować do swoich potrzeb za pomocą katalogu API NVIDIA.
Najpopularniejsze mikrousługi NIM dostępne na AWS
Dzięki integracji z AWS, deweloperzy mogą korzystać z różnorodnych modeli zoptymalizowanych pod kątem różnych przypadków użycia AI. Poniżej kilka wyróżniających się mikrousług:
- NVIDIA Nemotron-4: Zaawansowany model generujący syntetyczne dane, które pomagają w budowaniu odpornych i wydajnych niestandardowych modeli językowych (LLM).
- Llama 3.1 8B-Instruct: Wielojęzyczny model językowy z 8 miliardami parametrów, zoptymalizowany pod kątem analizy języka, generowania tekstów i rozumowania.
- Llama 3.1 70B-Instruct: Wersja z 70 miliardami parametrów, przystosowana do zaawansowanych interakcji dialogowych w wielu językach.
- Mixtral 8x7B Instruct v0.1: Model mieszający ekspertów (sparse mixture of experts), zoptymalizowany do tworzenia kreatywnych tekstów i wykonywania niestandardowych poleceń.
Rozwiązania oparte na NIM w praktyce
Wiele firm na całym świecie, takich jak SoftServe, wykorzystuje potencjał NIM w opracowywaniu innowacyjnych rozwiązań AI. SoftServe wdrożył sześć aplikacji opartych na generatywnej AI, które zostały uruchomione na platformie AWS i zoptymalizowane przez NIM. Wśród nich znajduje się m.in. system Gen AI Drug Discovery, platforma cyfrowego asystenta przemysłowego oraz narzędzie do rozpoznawania mowy.
Wszystkie te rozwiązania opierają się na referencyjnych przepływach pracy NVIDIA AI Blueprints, które przyspieszają rozwój aplikacji AI i wdrażają technologie NVIDIA, takie jak biblioteki akceleracyjne czy zestawy SDK.
Rozpocznij swoją przygodę z NIM na AWS
Deweloperzy mają teraz łatwy dostęp do mikrousług NIM na AWS, co umożliwia zoptymalizowane wdrażanie różnych modeli AI zgodnie z indywidualnymi potrzebami i wymaganiami. Odkryj ponad 100 zoptymalizowanych modeli w katalogu API NVIDIA lub skorzystaj z próbnej licencji NVIDIA AI Enterprise, aby rozpocząć prace nad nowoczesnymi aplikacjami generatywnej AI.
Od teraz wdrażanie wysokowydajnych rozwiązań AI na AWS jest prostsze niż kiedykolwiek. Mikrousługi NIM to krok naprzód w tworzeniu bardziej wydajnych, elastycznych i skalowalnych aplikacji sztucznej inteligencji, które nie tylko zaspokoją potrzeby obecnego rynku, ale również wyznaczą kierunek przyszłości w tej dynamicznie rozwijającej się dziedzinie.