Microsoft oficjalnie zakazuje korzystania z aplikacji DeepSeek przez swoich pracowników, powołując się na poważne obawy dotyczące bezpieczeństwa danych oraz możliwego rozprzestrzeniania propagandy. Informację tę potwierdził podczas przesłuchania w amerykańskim Senacie wiceprezes firmy Brad Smith. Zaznaczył on stanowczo, że głównym powodem decyzji jest ryzyko przechowywania danych użytkowników na serwerach w Chinach oraz potencjalna możliwość manipulacji odpowiedziami w duchu chińskiej propagandy.
DeepSeek, popularna aplikacja oparta na sztucznej inteligencji, znalazła się pod lupą różnych organizacji na całym świecie. Już wcześniej niektóre kraje wprowadziły ograniczenia w jej funkcjonowaniu. Po raz pierwszy jednak jeden z gigantów technologicznych – Microsoft – publicznie przyznaje, że zakazuje korzystania z tego rozwiązania wewnętrznie, a także nie udostępnia aplikacji w swoim sklepie z aplikacjami. Podjęta decyzja ma na celu ochronę wrażliwych danych korporacyjnych przed dostępem niezaufanych podmiotów zagranicznych.
Smith wyjaśnił, że polityka prywatności DeepSeek jasno określa miejsce przechowywania danych użytkowników – serwery zlokalizowane w Chinach. Tym samym, dane te podlegają chińskiemu prawu, które wymaga współpracy dostawców usług z krajowymi służbami wywiadowczymi. W praktyce może to oznaczać, że wszystko, co użytkownicy wprowadzają do aplikacji, może trafić w ręce instytucji rządowych w Chinach.
Dodatkowo, znane są przypadki, w których DeepSeek wprowadza cenzurę na tematy uznane za politycznie wrażliwe przez władze chińskie. Z tego powodu istnieje obawa, że narzędzie to nie tylko gromadzi dane w sposób niezgodny z zachodnimi standardami, ale również dostarcza treści o jednostronnym, propagandowym charakterze. Dla organizacji stawiających na przejrzystość i neutralność AI, to powód do niepokoju.
Co ciekawe, mimo krytycznego podejścia do aplikacji DeepSeek, Microsoft udostępnił wersję modelu AI DeepSeek R1 na platformie chmurowej Azure, co może wydawać się sprzeczne z wcześniejszymi deklaracjami. Jak jednak wyjaśniono, model udostępniony przez Microsoft nie jest tożsamy z oficjalną aplikacją DeepSeek – został on przetestowany w ramach rygorystycznych procedur bezpieczeństwa, znanych jako „red teaming”, oraz oceniony pod kątem potencjalnych zagrożeń. Umożliwia to użytkownikom korzystanie z możliwości modelu AI, bez konieczności przesyłania danych do chińskich centrów danych.
W ramach tych działań, inżynierowie Microsoftu przeprowadzili modyfikacje samego modelu, aby – jak określił to Smith – „usunąć szkodliwe efekty uboczne”. To oznacza, że firma włożyła rzeczywisty wysiłek w ograniczenie ryzyka związanego z dezinformacją oraz możliwymi podatnościami cybernetycznymi generowanymi przez AI.
Mimo wszystko, ekspertom wciąż towarzyszy niepewność. Nawet jeśli model AI można uruchomić lokalnie i technicznie odłączyć go od chińskich serwerów, to nadal istnieje ryzyko rozprzestrzeniania niepożądanych treści, w tym propagandy lub kodu obarczonego lukami bezpieczeństwa.
Ciekawostką pozostaje fakt, że DeepSeek jako aplikacja może stanowić konkurencję dla własnego rozwiązania Microsoftu – Copilota, czyli wyszukiwarki połączonej z funkcjami AI. Wbrew pozorom korporacja nie blokuje każdego konkurencyjnego rozwiązania – na przykład aplikacja Perplexity AI jest dostępna w sklepie Windows. Jednakże wyszukiwania nie przynoszą rezultatów dla aplikacji stworzonych przez Google, takich jak przeglądarka Chrome czy chatbot Gemini, co może sugerować inną politykę wobec największego rywala z Mountain View.
Świat nowych technologii zmienia się w błyskawicznym tempie, a wraz z nim ewoluują również zagrożenia. Rosnąca popularność otwartych modeli sztucznej inteligencji, przeplatająca się z coraz bardziej skomplikowanymi kwestiami polityczno-prawnymi dotyczącymi przechowywania danych, wymaga od firm takich jak Microsoft przenikliwości i konsekwencji w działaniu. Zakaz korzystania przez pracowników z aplikacji DeepSeek to nie tylko decyzja operacyjna, ale także wyraźny sygnał w stronę globalnej debaty o odpowiedzialnym i bezpiecznym rozwoju technologii AI.