W ostatnich latach sztuczna inteligencja (AI) stała się tematem gorących dyskusji na całym świecie, zarówno w kręgach technologicznych, jak i politycznych. Problematyka związana z regulacją AI budzi wiele kontrowersji, a jednym z głównych głosów w tej debacie jest Martin Casado, partner w firmie inwestycyjnej Andreessen Horowitz, który podkreśla, że obecne podejście do regulacji AI opiera się na błędnych założeniach.
Łatka przyszłościowych zagrożeń zamiast realnych ryzyk
Martin Casado, który od lat inwestuje w rozwój infrastruktury technologicznej i AI, wskazuje na podstawowy problem: ustawodawcy skupiają się na hipotetycznych, przyszłościowych zagrożeniach, zamiast przyjrzeć się rzeczywistym, obecnym ryzykom, które niesie ze sobą ta technologia. Casado wyraźnie podkreśla, że prawodawcy próbują tworzyć zupełnie nowe przepisy, nie odwołując się do wcześniejszych doświadczeń z innymi transformative technologies. Przykładem tego jest próba definiowania AI w przepisach, co często okazuje się nieprecyzyjne, a nawet niemożliwe do jednoznacznego określenia.
Przykład Kalifornii i „zabójczego przycisku” dla AI
Casado był jedną z osób, które głośno odetchnęły z ulgą, kiedy gubernator Kalifornii, Gavin Newsom, zawetował projekt ustawy SB 1047. Ustawa ta wprowadzała tzw. „zabójczy przycisk” dla super-dużych modeli AI, co w praktyce miało umożliwić natychmiastowe ich wyłączenie w przypadku zagrożeń. Przeciwnicy tej regulacji, w tym Casado, argumentowali, że przepisy były sformułowane tak niejasno, że mogły poważnie zaszkodzić rozwojowi technologii AI w Kalifornii, wprowadzając chaos i nieporozumienia w środowisku startupowym. Warto podkreślić, że Kalifornia jest jednym z głównych centrów rozwoju technologii AI na świecie, a nieprzemyślane regulacje mogłyby zahamować innowacje.
Złe prawo tworzy zły klimat
Casado zauważa, że tego typu regulacje odstraszają wielu przedsiębiorców technologicznych od rozwijania działalności w Kalifornii. „Wielu założycieli firm obawia się przeniesienia do Kalifornii z powodu sygnałów, jakie te przepisy wysyłają: że preferujemy złe ustawodawstwo oparte na obawach rodem z literatury science fiction, zamiast skoncentrować się na konkretnych zagrożeniach” – napisał Casado na platformie X (dawniej Twitter) przed wetowaniem ustawy SB 1047.
Błędy w regulacjach mogą powrócić
Choć ustawa SB 1047 została zawetowana, Casado podkreśla, że sam fakt jej powstania jest powodem do niepokoju. Politycy mogą ponownie próbować wprowadzać podobne przepisy, kierując się obawami społeczeństwa, zamiast realnym zrozumieniem technologii. Według Casado, kluczowym aspektem tworzenia regulacji powinna być głęboka znajomość danego tematu, a wiele propozycji regulacji AI nie pochodzi od osób, które rozumieją technologię na poziomie akademickim lub komercyjnym.
AI to nie internet – różnica w marginalnym ryzyku
Casado zwraca uwagę na istotną różnicę między tym, jak działa AI, a jak funkcjonuje internet, podkreślając, że istnieje tzw. marginalne ryzyko związane z technologią. „Jak dzisiejsze AI różni się od korzystania z Google? Jak dzisiejsze AI różni się od korzystania z internetu? Jeśli zrozumiemy tę różnicę, możemy stworzyć polityki, które uwzględniają rzeczywiste ryzyko, a nie hipotetyczne zagrożenia” – tłumaczy Casado.
Argument za wcześniejszymi regulacjami
Jednak nie wszyscy są zgodni z Casado. Wśród uczestników dyskusji pojawiały się głosy, że internet i media społecznościowe również nie były odpowiednio uregulowane na wczesnych etapach rozwoju, co doprowadziło do poważnych problemów, takich jak dominacja w reklamach online czy zbieranie ogromnych ilości danych o użytkownikach. Zwolennicy wczesnych regulacji dla AI argumentują, że wprowadzenie ich teraz mogłoby zapobiec podobnym błędom.
Istniejące ramy regulacyjne wystarczą?
Casado odpowiada na ten argument, podkreślając, że istnieją już wypracowane przez dekady ramy regulacyjne, które mogą być stosowane również w kontekście AI. Wskazuje na liczne agencje rządowe, takie jak Federalna Komisja Łączności (FCC) czy Komitet Nauki, Przestrzeni Kosmicznej i Technologii, które mają odpowiednie narzędzia, by skonstruować nowe przepisy dotyczące zaawansowanych technologii. Nie trzeba więc tworzyć zupełnie nowych regulacji, które mogą przynieść więcej szkody niż pożytku.
AI nie powinno być ofiarą błędów innych technologii
Co jednak najważniejsze, Casado uważa, że AI nie powinno być karane za błędy, które popełniono przy regulacji innych technologii, takich jak media społecznościowe. „Jeśli popełniliśmy błędy w regulacjach dotyczących mediów społecznościowych, nie naprawimy tego przez zbyt surowe regulowanie AI. To nielogiczne podejście. Zamiast tego, powinniśmy skupić się na poprawie regulacji w mediach społecznościowych” – dodaje.
Podsumowując, Casado wskazuje potrzebę przemyślanego podejścia do regulacji AI, opartego na rzeczywistym zrozumieniu technologii, a nie na strachu przed nieznanym. Tylko wtedy, zdaniem eksperta, uda się wypracować przepisy, które będą służyć zarówno innowacjom, jak i ochronie społeczeństwa przed realnymi ryzykami związanymi z AI.