Brytyjski Rządowy Serwis Cyfrowy (GDS) opublikował kompleksowy zestaw wytycznych dotyczących wykorzystania sztucznej inteligencji generatywnej (GenAI) w sektorze publicznym. Nowy dokument nosi nazwę „Artificial Intelligence Playbook for the UK Government” i stanowi jeden z najbardziej pragmatycznych przewodników dla instytucji rządowych i publicznych w zakresie stosowania AI w sposób odpowiedzialny, bezpieczny i zgodny z etyką. Inicjatywa GDS wyróżnia się na tle innych nie tylko swoją przejrzystością i świadomością ryzyk, ale także konkretnymi propozycjami narzędzi oraz dobrych praktyk. Może ona posłużyć za uniwersalny model dla organizacji, które chcą integrować GenAI bez szkody dla obywateli, danych czy systemów.
Na szczególną uwagę zasługuje fakt, że dokument nie koncentruje się wyłącznie na dużych modelach językowych (LLM), które w ostatnim czasie dominują debatę o AI, lecz sięga głębiej, prezentując pełne spektrum typów sztucznej inteligencji — od klasycznej AI po agentową. Przewodnik składa się z dziesięciu zasad, które służą jako kompas dla podmiotów publicznych na różnych etapach wdrażania rozwiązań opartych o AI. Podejście to podkreśla holistyczny charakter publikacji: nie chodzi o implementację dla samej technologii, lecz o przemyślane i zrównoważone wdrażanie AI w konkretnych kontekstach zadaniowych.
Pierwszym z filarów przewodnika jest solidne zrozumienie tego, czym AI jest, a czym nie jest. Użytkownicy narzędzi opartej na sztucznej inteligencji powinni mieć świadomość ograniczeń tych narzędzi — zwłaszcza w zakresie rozumowania, kontekstu czy podejmowania decyzji. Przewodnik przypomina, że systemy te nie posiadają ludzkiej perspektywy, ani moralności, co wymaga ich odpowiedniego nadzorowania i ograniczania. W tym kontekście podkreślono niedoskonałości, takie jak skłonność do tzw. halucynacji danych, czyli generowania nieprawdziwych informacji na podstawie błędnych przesłanek.
Kwestie etyczne i prawne stanowią sedno drugiej zasady. GDS wprost przyznaje, że dane użyte do trenowania modeli AI mogą być zbiorem uprzedzeń społecznych — dlatego walka z błędnym i ukierunkowanym treningiem staje się istotna w kontekście podejmowania decyzji za obywateli. Choć regulacje unijne i brytyjskie w zakresie ochrony danych (jak GDPR) obowiązują nie od dziś, to przewodnik proponuje nowe standardy odpowiedzialności – m.in. poprzez szczegółowe ocenianie ryzyk i realizację audytów.
Ważnym punktem odniesienia jest bezpieczeństwo systemów opartych o AI. Trzecia zasada zwraca uwagę na rosnące ryzyko celowych ataków, takich jak zatrucia danych treningowych (data poisoning), ataki z użyciem zakłócania sygnału wejściowego (perturbation attacks) czy manipulacje przy pomocy poleceń wejściowych (prompt injections). Wskazano również, że większość narzędzi AI powstała poza obszarem korporacyjnego IT, co skutkuje brakiem standardów bezpieczeństwa. W połączeniu z faktem, że AI często ma wysokie uprawnienia systemowe, tworzy to ryzykowne środowisko operacyjne.
Kolejnym nieodzownym elementem przewodnika jest idea „znaczącej kontroli człowieka” (Principle 4). Mimo że może się wydawać oczywiste, iż to człowiek sprawuje władzę nad maszyną, przewodnik uczula, że AI w procesach decyzyjnych może wymknąć się spod kontroli — zwłaszcza w przypadkach, gdy wyniki generowane przez LLM-y są automatycznie przetwarzane w większych rozwiązaniach systemowych. Szczególną uwagę zwrócono na konieczność respektowania przepisów o danych osobowych w przypadkach, gdy decyzje są podejmowane bezpośrednio przez systemy AI.
Obecnie integracja AI w cyklu życia produktu technologicznego (Principle 5) jest nadal wyzwaniem. Mimo łatwości zaimplementowania modelu AI za pomocą gotowego rozwiązania od OpenAI, Google czy innego dostawcy, znacznie trudniejsza jest odpowiedzialna integracja tych modeli z procesami biznesowymi organizacji. W tym celu promuje się podejście zgodne z dobrymi praktykami DevOps i zarządzania projektami IT. Nie chodzi tylko o instalację, ale o pełne zrozumienie wpływu AI na ewolucję produktu, ryzyko oraz utrzymanie i skalowanie w czasie.
Zasada szósta przypomina, że rozwiązania AI powinny być stosowane tam, gdzie są faktycznie potrzebne. To ostrzeżenie przed efektem „złotego młotka” – czyli próbą dopasowania narzędzia AI do każdego problemu. GDS słusznie zachęca do podziału działań na małe zadania i analizowania, gdzie AI może faktycznie przynieść wartość, a gdzie tylko dodatkowe obciążenie. W tym kontekście wspiera się także tworzenie społeczności praktyków, które mogą dzielić się wiedzą i doświadczeniami w różnych sektorach.
Siódma zasada koncentruje się na otwartości i współpracy wewnątrz administracji państwowej. Celem jest budowanie kultury wymiany danych, informacji i rozwiązań — ponad strukturami organizacyjnymi, niezależnie od jednostki rządowej czy lokalnej. Efektem ma być sieć wspólnych doświadczeń, błędów i sukcesów, które pomogą uniknąć powielania złych praktyk i przyspieszą efektywne wdrożenia.
Końcówka przewodnika koncentruje się na aspektach kadrowych (Principle 9) i politycznych (Principle 10). Przyznaje się w nim wprost, że rynek pracy związany z AI nie jest łatwy, a pozyskanie odpowiednich kompetencji to dziś ogromne wyzwanie nawet dla najbardziej rozwiniętych gospodarek. Przewodnik oferuje więc konkretne ścieżki uczenia się i rozwoju, między innymi przez programy szkoleniowe wewnątrz administracji. Tylko zgrane, przeszkolone zespoły technologiczne mogą ocenić, które rozwiązania AI mają rzeczywistą wartość, a które to zwykły „fad”.
Z kolei ostatnia z zasad wprowadza do gry politykę instytucjonalną. Dokument wskazuje na konieczność zgodności z wewnętrznymi politykami i procesami instytucji, a także na potrzebę budowy zaufania poprzez odpowiednie mechanizmy kontroli i raportowania. To przypomnienie, że w przypadku organizacji publicznych każde użycie AI musi być dokładnie udokumentowane, audytowane i transparentne dla obywateli oraz organów nadzoru.
Podsumowując, Brytyjski przewodnik to jedno z najbardziej dojrzałych i przemyślanych podejść do regulacji generatywnej sztucznej inteligencji wewnątrz państwowych struktur. Choć mapa drogowa GDS nie odpowiada na wszystkie pytania i sama wymaga dalszego rozwoju, stanowi wartościowy punkt odniesienia dla organizacji wchodzących lub już obecnych w świecie AI. Warto, aby podobne inicjatywy pojawiały się również w innych krajach — dając nie tylko ramy regulacyjne, ale także inspirację do wprowadzenia odpowiedzialnej cyfrowej transformacji z wykorzystaniem sztucznej inteligencji.