W ciągu ostatnich miesięcy obserwujemy nowy, niepokojący trend w świecie technologii — masowe i nieautoryzowane wdrażanie dużych modeli językowych (LLM) do środowisk produkcyjnych. Pracownicy działów IT oraz deweloperzy, poszukując coraz wydajniejszych narzędzi, przypadkowo (lub celowo) omijają formalne procedury bezpieczeństwa i zatwierdzania. Powstaje tzw. „nowe shadow IT”, tym razem zasilane sztuczną inteligencją. Zjawisko dynamicznie poszerza zakres użycia rozwiązań opartych o AI bez jakiejkolwiek kontroli ze strony działów nadzorczych.
Przykładem może być sytuacja z jednego z fintechów średniej wielkości, gdzie inżynier platformowy zintegrował model OpenAI bez konsultacji z działem bezpieczeństwa. Chciał jedynie automatycznie oznaczać zasoby w chmurze – AI zrobiło to szybciej i lepiej niż dotychczasowe narzędzia firmowe. Jednak, gdy sprawa wyszła na jaw, rozpętała się burza: audyty, analizy ryzyka, szukanie retroaktywnych zatwierdzeń. Problem nie polegał na złych intencjach, lecz na prędkości, z jaką deweloperzy adaptują nowe technologie, często poza wiedzą organizacji.
Tego rodzaju „shadow AI” polega na nieautoryzowanym wdrażaniu GenAI lub modeli LLM do aktywnych przepływów pracy – bez zaakceptowanej dokumentacji, przeglądu kodu czy choćby poinformowania zespołu ds. bezpieczeństwa. Deweloperzy testują prompty na rzeczywistych danych klientów, korzystają z tajnych skryptów do komunikacji z OpenAI i uruchamiają trenowane modele na klastrach GPU – wszystko, nie zostawiając żadnego oficjalnego śladu. Czynią to, bo mogą – instalacja paczki open source czy wykorzystanie klucza API nie wymaga formalnej zgody. Co więcej – te narzędzia po prostu działają, często lepiej niż „zatwierdzone” przez firmę rozwiązania.
LLMy zaczęły przenikać praktycznie każdą warstwę infrastruktury IT. Używa się ich do tagowania zasobów chmurowych, klasyfikowania alertów, generowania dokumentacji zgodności czy budowy wyszukiwarek wiedzy firmowej. Czasem moduły AI są wręcz wpisane w procesy CI/CD czy automatyzacje skriptowe, które nigdy nie trafiają do formalnego przeglądu. To nie są odosobnione przypadki – dotyczą one firm z niemal każdego sektora.
Problem w tym, że ukrywanie takiej aktywności pod powierzchnią może z czasem skutkować dużo poważniejszymi konsekwencjami. Naruszenia danych, awarie systemów czy nieudokumentowane zależności to tylko wierzchołek góry lodowej. Brak widoczności i audytowalności powoduje, że organizacja traci kontrolę oraz zaufanie do swoich procesów technologicznych.
Niektóre firmy zaczynają reagować – choć jeszcze nie jest to powszechną praktyką. Stosują one reguły detekcji wychodzącego ruchu API do zewnętrznych dostawców LLM, analizują kod źródłowy w poszukiwaniu charakterystycznych sygnatur czy integrują obserwowalność AI w narzędzia ochrony chmury lub systemy EDR. W bardziej zaawansowanych organizacjach tworzy się już mapy użycia modeli AI z uwzględnieniem lokalizacji, właścicieli i powiązań z danymi wrażliwymi. Tylko taka strategia – pełna widoczność oraz kontekst – pozwala przejść z reaktywnego zarządzania w stronę świadomego i zrównoważonego wdrażania rozwiązań generatywnej AI.
Sama detekcja nie wystarczy. Najlepszą strategią nie jest represja, lecz budowa bezpiecznych alternatyw. Zamiast blokować, warto tworzyć sandboxy, wewnętrzne proxy do zatwierdzonych modeli oraz standardy „eksperymentalnych” środowisk z zaimplementowaną kontrolą dostępu i monitorowaniem. Pozwalają one zespołom testować narzędzia AI przy pełnym wsparciu i w zgodzie z polityką organizacji. Gdy użytkownicy mają dobre opcje, nie muszą uciekać w „partyzantkę”.
Warto zrozumieć, że duże modele językowe już są częścią firmowego stacku – niezależnie od tego, czy zostały oficjalnie zatwierdzone. Przeniknęły do skryptów automatyzujących zadania, pipeline’ów DevOps czy narzędzi developerskich. Nie da się całkowicie zakazać ich użycia. Można jednak zadbać, by firmowy leadership nie był ostatni, który się o tym dowie.
Świadome, odpowiedzialne wdrażanie AI nie musi oznaczać hamowania innowacyjności. Wręcz przeciwnie – tworząc odpowiednią infrastrukturę do bezpiecznego korzystania z GenAI, firmy mogą przyciągać talenty, skalować działania i jednocześnie chronić dane oraz reputację. Trzeba tylko odpowiednio wcześnie dostrzec, że „dzikie” wdrażanie AI to nie błędy jednostek – to potrzeba, na którą jeszcze nie ma odpowiedzi systemowej.