Wraz z wprowadzeniem systemu Windows 11 w wersji 24H2, Microsoft otworzył nowe możliwości dla lokalnego przetwarzania modeli sztucznej inteligencji. Kluczowym elementem tej zmiany jest wsparcie dla specjalnych jednostek obliczeniowych NPU (Neural Processing Unit) w komputerach Copilot+. Dzięki tej technologii deweloperzy mogą uruchamiać złożone modele AI lokalnie, bez konieczności wysyłania zapytań do chmury, co znacząco wpływa na szybkość działania i poziom prywatności użytkowników.
Nowe komputery Copilot+ bazują na architekturze ARM i wyposażone są w procesory Snapdragon X Elite oraz Snapdragon X Plus. Choć Microsoft zapowiedział także wsparcie dla chipów Intel Core Ultra 200V i AMD Ryzen AI 300, to właśnie rozwiązania Qualcomm wykazują największy potencjał do wydajnego przetwarzania modeli AI. Dzięki ich jednostkom NPU możliwe jest wykonywanie ponad 40 bilionów operacji na sekundę (TOPS), co pozwala na wykorzystanie zaawansowanych funkcji AI w codziennych zastosowaniach.
Jednym z najbardziej obiecujących modeli obsługiwanych przez tę technologię jest DeepSeek R1 – zaawansowany model językowy dostępny w wersjach 7B i 14B. Microsoft udostępnił je deweloperom poprzez platformę Azure AI Foundry, umożliwiając ich łatwą implementację na urządzeniach Copilot+. Modele te zostały zoptymalizowane do działania na NPU, dzięki czemu nie wymagają intensywnego wykorzystania CPU ani GPU, co przekłada się na dłuższą żywotność baterii i lepszą wydajność systemu.
Przetwarzanie lokalne w modelach DeepSeek otwiera nowe możliwości dla deweloperów i użytkowników, którzy mogą korzystać z zaawansowanych algorytmów uczenia maszynowego bezpośrednio na swoich urządzeniach. Modele DeepSeek R1 pozwalają na szybkie rozwiązywanie zadań związanych z przetwarzaniem języka naturalnego, takich jak tłumaczenie tekstu, analiza sentymentu czy automatyczne podsumowywanie dokumentów. Ich zoptymalizowana architektura umożliwia sprawne funkcjonowanie, eliminując konieczność przesyłania danych do chmury, co przekłada się na większe bezpieczeństwo przechowywanych informacji.
Deweloperzy mogą wykorzystać narzędzie AI Toolkit wbudowane w środowisko Visual Studio Code, aby uzyskać dostęp do zoptymalizowanych modeli DeepSeek. Modele te można pobierać bezpośrednio z katalogu Azure AI i uruchamiać lokalnie przy użyciu formatu ONNX QDQ, dostosowanego do przetwarzania na NPU. Proces instalacji jest niezwykle prosty, a pobrane modele mogą być przechowywane w katalogu lokalnym użytkownika.
Korzystanie z DeepSeek R1 w praktyce jest nieskomplikowane. Po pobraniu modelu użytkownicy mogą uruchamiać go poprzez interfejs AI Toolkit lub za pomocą dedykowanego API zgodnego ze standardem OpenAI. Dzięki temu możliwe jest wdrożenie modeli w istniejących aplikacjach oraz ich integracja z systemami wykorzystującymi przetwarzanie języka naturalnego.
Pojawienie się wsparcia dla modeli DeepSeek na Copilot+ PC jest krokiem milowym w ewolucji AI. Deweloperzy mogą teraz tworzyć aplikacje działające całkowicie lokalnie, co nie tylko zapewnia większą prywatność, ale także zwiększa wygodę użytkowania i szybkość reakcji systemu. W perspektywie nadchodzących lat możemy spodziewać się jeszcze większej integracji specjalistycznych jednostek NPU, które uczynią komputery osobiste bardziej inteligentnymi i samodzielnymi niż kiedykolwiek wcześniej.
W miarę jak rozwój AI przyspiesza, technologia NPU w komputerach Copilot+ może stać się kluczowym standardem dla lokalnej sztucznej inteligencji. To wydarzenie symbolizuje początek nowej ery, w której inteligentne modele AI są na wyciągnięcie ręki, bez konieczności angażowania mocy obliczeniowej gigantycznych centrów danych.