Unia Europejska od lat pracuje nad wprowadzeniem kompleksowych regulacji dotyczących sztucznej inteligencji, zwanych Aktem o AI (EU AI Act). To jedno z pierwszych tak rozbudowanych przedsięwzięć na świecie, mające na celu kontrolowanie rozwoju i wdrażania technologii sztucznej inteligencji (SI) w sposób, który minimalizuje ryzyko, a jednocześnie wspiera innowacyjność. W miarę zbliżania się terminów wdrożenia kluczowych postanowień tego prawa, możemy spodziewać się, że w nadchodzących latach temat regulacji SI zyska na znaczeniu.
Cele i założenia Aktu o AI
Cofnijmy się do kwietnia 2021 roku, kiedy Komisja Europejska opublikowała pierwszą propozycję dla Aktu o AI. Wyzwaniem i jednocześnie celem UE było stworzenie ram prawnych, które nie tylko zminimalizują ryzyka związane z SI, ale również pobudzą innowacyjność poprzez wzrost zaufania obywateli do tej technologii. Przepisy miały zagwarantować, że technologie sztucznej inteligencji zachowają tzw. „human-centered” podejście, skupione na człowieku. Ponadto, przedsiębiorstwa miałyby jasne zasady dotyczące tego, jak rozwijać i wprowadzać na rynek swoje rozwiązania oparte na SI.
Wzrost automatyzacji w różnych sektorach przemysłu i społeczeństwa ma potencjał, by znacząco zwiększyć produktywność. Niemniej jednak, istnieje również ryzyko, że jeśli algorytmy nie będą działać poprawnie, mogą wyrządzać szkody, zwłaszcza tam, gdzie SI ingeruje w prawa jednostki. Dlatego właśnie UE chce, by regulacje minimalizowały takie ryzyko, jednocześnie budując zaufanie do nowych technologii.
Pomysł „ekosystemu zaufania” był na początku relatywnie bezkontrowersyjny, ale z czasem pojawiły się głosy krytyki. Niektóre środowiska twierdziły, że było zbyt wcześnie na regulowanie tej dynamicznie rozwijającej się dziedziny. Obawiano się, że nadmierne przepisy mogą zaszkodzić europejskiej innowacyjności oraz konkurencyjności.
Co wymaga Akt o AI?
Większość zastosowań sztucznej inteligencji nie jest bezpośrednio objęta przepisami Aktu o AI, ponieważ nie podlegają one regulacjom opartym na analizie ryzyka. Warto również zaznaczyć, że technologie SI wykorzystywane w celach wojskowych są wyłączone z zakresu przepisów, ponieważ kwestie bezpieczeństwa narodowego należą do kompetencji państw członkowskich, a nie samej Unii.
W odniesieniu do zastosowań obejmujących wyższe ryzyko, Akt o AI wprowadza hierarchię ryzyk. Niektóre zastosowania, takie jak „szkodliwe techniki podprogowe, manipulacyjne i dezinformacyjne” czy „niedopuszczalne skoringi społeczne”, są uznawane za niosące „nieakceptowalne ryzyko” i są zakazane. Niemniej jednak, lista zakazanych zastosowań zawiera liczne wyjątki. Na przykład, zakaz używania identyfikacji biometrycznej w czasie rzeczywistym przez organy ścigania w przestrzeniach publicznych ma swoje wyjątki, takie jak użycie tej technologii w przypadku niektórych przestępstw.
Kolejną kategorią są „wysokiego ryzyka” zastosowania SI, które obejmują m.in. krytyczną infrastrukturę, edukację, zdrowie, a także egzekwowanie prawa. Przedsiębiorstwa rozwijające aplikacje w tych obszarach muszą przeprowadzać tzw. oceny zgodności przed wprowadzeniem ich na rynek oraz na bieżąco kontrolować aktualizacje systemów. Oprogramowanie musi spełniać określone normy dotyczące jakości danych, dokumentacji, przejrzystości, nadzoru ludzkiego, dokładności i odporności na cyberzagrożenia.
Generatywna sztuczna inteligencja (GenAI) i jej wpływ na przepisy
Generatywna SI, znana również jako GenAI, zmieniła nie tylko sposób, w jaki mówimy o sztucznej inteligencji, ale również wpłynęła na same przepisy Aktu o AI. Nagły wzrost popularności narzędzi, takich jak ChatGPT, sprawił, że europarlamentarzyści postanowili wprowadzić dodatkowe zasady dotyczące modeli SI, które stanowią podstawę dla tak zaawansowanych narzędzi. Zwiększyło to uwagę branży technologicznej na działania UE w zakresie regulacji, co prowadziło nawet do prób lobbingu na rzecz złagodzenia przepisów.
Przykładem jest francuska firma Mistral, która argumentowała, że przepisy dotyczące twórców modeli SI mogą zaszkodzić konkurencyjności Europy w porównaniu do gigantów z USA i Chin. Z kolei Sam Altman, CEO OpenAI, zasugerował w rozmowie z dziennikarzami, że może wycofać swoje technologie z Europy, jeśli przepisy okażą się zbyt restrykcyjne. Po reakcjach ze strony UE, Altman szybko wycofał swoje groźby i skupił się na tradycyjnym lobbingu.
Proces wdrożenia
Akt o AI oficjalnie wszedł w życie 1 sierpnia 2024 roku, uruchamiając proces dostosowywania się przedsiębiorstw i regulatorów do nowych przepisów. Harmonogram wdrożeniowy przewiduje różne okresy na spełnienie poszczególnych wymogów – od sześciu miesięcy do trzech lat, w zależności od rodzaju przepisów.
Taki stopniowy harmonogram ma na celu nie tylko umożliwienie firmom dostosowania swoich operacji, ale także daje regulatorom czas na zdefiniowanie, jak powinna wyglądać zgodność z tymi przepisami w kontekście dynamicznie rozwijającej się technologii.
Kwestie egzekwowania przepisów
Nadzór nad zgodnością z przepisami dla Generatywnej SI będzie scentralizowany na poziomie Unii Europejskiej, z kluczową rolą AI Office. Kary za nieprzestrzeganie przepisów mogą sięgać nawet 3% globalnych obrotów producentów modeli SI.
W przypadku pozostałych systemów SI, nadzór będzie zdecentralizowany, a odpowiedzialność za egzekwowanie przepisów spadnie na organy w państwach członkowskich. Kary za naruszenia mogą sięgać nawet 7% globalnych obrotów lub 35 milionów euro – w zależności, która wartość będzie wyższa – w przypadku naruszeń dotyczących zakazanych zastosowań SI. Mniej poważne naruszenia mogą być sankcjonowane grzywnami sięgającymi od 1,5% do 3% obrotu globalnego.
Podsumowanie
Akt o AI to pionierskie podejście Unii Europejskiej do regulacji sztucznej inteligencji. Choć jego pełne wdrożenie może zająć kilka lat, jego wpływ na rynek oraz rozwój SI z pewnością będzie znaczący. W miarę jak technologia sztucznej inteligencji się rozwija, można się spodziewać, że regulacje te będą ewoluować, aby sprostać nowym wyzwaniom. To prawo ma szansę stać się żywym dokumentem, który będzie dostosowywany do szybko zmieniającej się rzeczywistości technologicznej.