W ostatnich latach obserwujemy dynamiczny rozwój sztucznej inteligencji (AI), a wraz z nim rosnące zainteresowanie regulacjami ze strony rządów na całym świecie. W tym kontekście, zarówno wielkie korporacje technologiczne, jak i startupy, połączyły siły, aby powstrzymać rządy przed wprowadzaniem regulacji, które mogłyby wpłynąć na ich interesy finansowe, ale które często określają jako „ochrona innowacji”. W nowej, wspólnej inicjatywie do rządów apelują m.in. Marc Andreessen i Ben Horowitz (założyciele a16z) oraz Satya Nadella i Brad Smith z Microsoftu.
Wstrzymanie regulacji w trosce o „innowacje”
Pomimo różnic interesów, liderzy z dużych firm oraz przedstawiciele startupów postanowili wspólnie sprzeciwić się wprowadzeniu nowych przepisów, które dotyczyłyby sztucznej inteligencji. Przykładem takiej regulacji jest kalifornijska ustawa SB 1047, która miała na celu kontrolowanie rozwoju modeli AI, zwłaszcza w kontekście otwartych modeli danych.
SB 1047 została mocno skrytykowana przez przedstawicieli branży, którzy określili ją jako nieuzasadniony „podatek” nałożony na startupy. Partner generalny a16z, Anjney Midha, nazwał to „regresywną daniną”, która mogłaby faworyzować tylko największe firmy technologiczne, posiadające zasoby na opłacenie prawników i wdrożenie skomplikowanych wymagań prawnych. Jednak rzeczywistość była nieco inna – ustawa w rzeczywistości chroniła małe firmy technologiczne, które miałyby być jedynie minimalnie dotknięte nowymi regulacjami.
Czy rzeczywiście chodzi o małe firmy?
Warto zauważyć, że SB 1047 była skierowana przeciwko gigantycznym firmom, których działania mogłyby mieć ogromny wpływ na społeczeństwo i gospodarkę. Jednak to właśnie te duże korporacje zły obraz przedstawiały w mediach, sugerując, że nowe przepisy miałyby negatywnie wpłynąć głównie na małe startupy. Ironią jest fakt, że właśnie te wielkie firmy, takie jak Microsoft czy a16z, które z jednej strony promują ochronę „mniejszych graczy”, w rzeczywistości mogłyby zyskać dzięki osłabieniu potencjalnych regulacji.
Próby wprowadzenia regulacji na poziomie stanowym często spotykają się z oporem, podczas gdy te same firmy opowiadają się za federalnymi przepisami, wiedząc, że takie działania mogą się nigdy nie ziścić ze względu na polityczne spory i brak technicznej wiedzy po stronie ustawodawców. To swojego rodzaju strategia – lepiej walczyć z mniejszymi, lokalnymi przepisami, jednocześnie popierając pozornie bardziej odległe regulacje na poziomie krajowym, które mają małe szanse na realizację.
Propozycje rozwiązań – co naprawdę chcą osiągnąć?
W opublikowanym oświadczeniu wspólna grupa przedstawicieli branży technologicznej podkreśla, że regulacje powinny mieć „oparte na naukowych standardach” podejście, które skupia się na zagrożeniach związanych z nadużywaniem technologii, a nie na samej technologii. W praktyce oznacza to, że nie powinniśmy wprowadzać prewencyjnych regulacji, ale raczej karać za niewłaściwe użycie technologii, kiedy już do niego dojdzie. Przykład sytuacji z giełdą kryptowalut FTX pokazuje, jak ryzykowne może być to podejście.
Podkreślają również, że regulacje powinny być wdrażane jedynie wtedy, gdy korzyści przewyższają koszty ich wprowadzenia. Jest to pewien sposób na sugerowanie, że branża technologiczna sama najlepiej wie, co powinno być regulowane. Tego rodzaju strategia przypomina sytuację, w której lis bierze udział w planowaniu zabezpieczeń kurnika.
Prawo do nauki – czy maszyny mają „prawo” do danych?
Jednym z bardziej kontrowersyjnych punktów, jakie porusza wspólne oświadczenie, jest kwestia dostępu maszyn do danych. Argumentują oni, że oprogramowanie, prowadzone przez miliardowe korporacje, ma „prawo” do dostępu do dowolnych danych, ponieważ ma się z nich „uczyć, tak jak ludzie”. Porównanie systemów AI do ludzi jest jednak mylące. Modele sztucznej inteligencji nie funkcjonują jak ludzie – są to zaawansowane projekcje statystyczne, które naśladują ludzki język i zachowania na podstawie danych, ale nie „uczą się” w sposób porównywalny do ludzkiego mózgu.
Jednocześnie, twierdzenie, że maszyny powinny mieć dostęp do danych bez ograniczeń, ignoruje fakt, że dane te są często owocem kosztownej pracy – na przykład pracy dziennikarzy czy naukowców. Prawo autorskie istnieje właśnie po to, by chronić twórców tych danych i zapewniać im wynagrodzenie za ich wysiłki. Nie chodzi o to, by uniemożliwić maszynom dostęp do informacji, ale o to, by zapewnić sprawiedliwe wynagrodzenie twórcom.
Co dalej?
Z jednej strony propozycje przedstawicieli branży technologicznej zawierają pozytywne elementy, takie jak wspieranie programów cyfrowej edukacji, które pomogą ludziom lepiej zrozumieć narzędzia AI. Rozważają także ideę utworzenia „Publicznych Zasobów Danych” – dostępnych dla wszystkich, co mogłoby przyczynić się do szerszego dostępu do informacji.
Jednak te ogólne, pozytywne rekomendacje są jedynie wierzchołkiem góry lodowej. Znacznie ważniejsze dla branży są te punkty, które w praktyce pozwoliłyby im na mniejsze regulacje, większą autonomię i dostęp do danych bez konieczności rekompensaty dla ich twórców. Warto być czujnym na to, jakie regulacje będą ostatecznie wprowadzone i jakie długoterminowe skutki mogą mieć dla społeczeństwa i gospodarki.
Ostatecznie, liderzy z branży technologicznej, jak Ben Horowitz, Brad Smith, Marc Andreessen czy Satya Nadella, starają się ograniczyć wszelkie regulacje, które mogłyby zagrozić ich interesom. Regulacje, które miałyby chronić nas przed potencjalnymi nadużyciami AI, są dla nich mniej istotne niż zachowanie swobody działania w rozwijaniu tej technologii.