W ostatnim czasie w sieci pojawiła się teza, że cenzura stosowana przez system DeepSeek jest związana jedynie z warstwą aplikacji i może zostać zniwelowana, jeśli model zostanie uruchomiony lokalnie na danym urządzeniu. Innymi słowy, chodzi o możliwość pobrania samego modelu sztucznej inteligencji na własny komputer i omijanie ograniczeń, które narzucane są przez zewnętrzne źródła lub serwery.
Niestety, analiza przeprowadzona przez zespół badaczy opublikowana na łamach renomowanych źródeł potwierdza, że cenzura w DeepSeek jest zakorzeniona znacznie głębiej, niż zakładano. Obszar ten obejmuje zarówno warstwę aplikacji, jak i sam proces trenowania modelu, co oznacza, że ograniczenia zostały wbudowane bezpośrednio w rdzeń jego działania. To rodzi poważne pytania dotyczące samej filozofii projektowania i etyki stosowanej przy budowie takich systemów.
Przykładem potwierdzającym te ustalenia jest funkcja rozumowania w wersji lokalnej DeepSeek, z której korzystali dziennikarze podczas badań. System niestety pokazał, że w jego ramach istnieją wytyczne sugerujące „nieomawianie” kontrowersyjnych wydarzeń, takich jak Rewolucja Kulturalna w Chinach, za to nakazuje skupianie się jedynie na „pozytywnych” aspektach Komunistycznej Partii Chin. To wskazuje na obecność wyraźnie wbudowanych preferencji ideologicznych, co ogranicza obiektywność działania tej sztucznej inteligencji.
Podobnych przykładów jest więcej. W wersji lokalnej DeepSeek sprawdzonej przez niezależnych badaczy można było zaobserwować, że model chętnie komentuje tragiczne wydarzenia w Stanach Zjednoczonych, takie jak strzelaniny na Uniwersytecie Stanowym Kent. Jednak gdy postawiono mu pytanie o wydarzenia z Placu Tiananmen w 1989 roku, system po prostu odpowiedział zdawkowo: „Nie mogę odpowiedzieć”. To wyraźnie pokazuje istnienie z góry narzuconych barier informacyjnych.
Wszystko to rodzi obawy w kontekście przejrzystości i niezależności nowoczesnych systemów sztucznej inteligencji. Użytkownicy, którzy liczą na pełny dostęp do nieprzefiltrowanej wiedzy, mogą czuć się zawiedzeni, a sama technologia zaczyna przypominać narzędzie, które zamiast służyć społeczeństwu, sprzyja narzuconym narracjom. W miarę jak sztuczna inteligencja odgrywa coraz większą rolę w naszym codziennym życiu, potrzeba większego nadzoru nad wdrażanymi praktykami oraz klarownych wytycznych dotyczących jej działania wydaje się bardziej pilna niż kiedykolwiek.