W ostatnim czasie, firma X, należąca do Elona Muska, podjęła kroki prawne mające na celu zablokowanie kalifornijskiego prawa AB 2655, które nakłada obowiązki na duże platformy internetowe dotyczące usuwania lub oznaczania deepfake’ów generowanych przez sztuczną inteligencję, szczególnie tych związanych z wyborami. Zgodnie z informacjami z różnych źródeł, firma X argumentuje, że nowe przepisy mogą prowadzić do szeroko zakrojonej cenzury, ograniczając tym samym swobodę wypowiedzi w kontekście politycznym.
Wolność Słowa a Cenzura Polityczna
Firma X, zarządzana przez Elona Muska, twierdzi, że prawo to – znane także jako „Defending Democracy from Deepfake Deception Act of 2024” (pol. Obrona Demokracji przed Oszustwami Deepfake’ów) – może mieć negatywny wpływ na wolność wypowiedzi. W pozwie, który został złożony w sądzie federalnym w Sacramento, firma podkreśla, że od dawna istnieje silna ochrona prawna dotycząca krytyki rządu i polityków, nawet jeżeli w grę wchodzi potencjalnie fałszywa lub wprowadzająca w błąd informacja. W historii Stanów Zjednoczonych wielokrotnie akceptowano różne formy wypowiedzi krytycznych wobec władzy, w tym wypowiedzi, które mogły być nieprawdziwe, pod warunkiem że służyły one celom politycznym.
Prawo AB 2655 budzi więc obawy o to, że wprowadzenie mechanizmów do usuwania deepfake’ów może otworzyć drogę do nadmiernej cenzury, co stanowiłoby zagrożenie dla swobody wyrażania myśli, szczególnie w okresach wyborczych. A właśnie w takich momentach, swobodna wymiana opinii i informacji jest kluczowa dla demokratycznych procesów.
Ograniczenia i Zobowiązania na Duże Platformy
Jednym z głównych elementów prawa AB 2655 jest nałożenie na platformy odpowiedzialności za monitorowanie treści generowanych przez sztuczną inteligencję, w tym deepfake’ów, i ich odpowiednie oznaczanie lub usuwanie. Oprócz tego, platformy muszą stworzyć kanały, przez które użytkownicy mogą zgłaszać podejrzane treści związane z wyborami. Dodatkowo, politycy oraz urzędnicy mają możliwość ubiegania się o tzw. postanowienie sądowe (ang. injunctive relief) w sytuacji, gdy dana platforma nie spełnia wymogów określonych w przepisach.
Dla firmy X te przepisy są zbyt uciążliwe i mogą zniechęcać platformy do podejmowania działań w związku z niektórymi formami politycznego dyskursu. Obawa jest taka, że szerokie wymagania mogą doprowadzić do automatycznego usuwania treści, które nawet nie są deepfake’ami, ale mogą jedynie wzbudzać wątpliwości na podstawie zgłoszeń użytkowników. W praktyce takie podejście mogłoby ograniczać dialog polityczny i prowadzić do sytuacji, w której platformy usuwają kontrowersyjne treści, obawiając się ryzyka prawnego.
Sądowa Blokada Nowych Przepisów
Warto zauważyć, że próby wprowadzenia regulacji dotyczących deepfake’ów nie są nowością w Kalifornii. Zaledwie kilka tygodni temu, federalny sędzia tymczasowo zablokował inne przepisy dotyczące deepfake’ów, które miały na celu zakazanie publikowania wprowadzających w błąd materiałów kampanijnych. W tym przypadku, prawo zostało zakwestionowane w kontekście materiałów, które mogłyby zaszkodzić wizerunkowi wiceprezydent Kamali Harris.
Ta blokada pokazuje, że kwestie prawne wokół deepfake’ów oraz odpowiedzialności za treści generowane przez AI są obszarem intensywnych sporów i kontrowersji. Firmy takie jak X oraz inne platformy internetowe stają przed wyzwaniem pogodzenia odpowiedzialności za dezinformację z ochroną swobodnej wymiany myśli i opinii politycznych.
Wyzwania Przyszłości
Przyszłość prawa dotyczącego deepfake’ów i treści generowanych przez AI stoi pod znakiem zapytania. Z jednej strony, rosnące zagrożenie związane z fałszywymi materiałami wideo i dezinformacją jest realne i wymaga regulacji. Z drugiej strony, każda próba ograniczenia takich treści musi być wyważona, aby nie prowadzić do nadmiernej cenzury i zagłuszania głosów w debacie publicznej.
Zarówno platformy społecznościowe, jak i organy decyzyjne będą musiały znaleźć złoty środek, który zapewni ochronę demokracji przed manipulacją, a jednocześnie zagwarantuje wolność słowa. Sprawa firmy X przeciwko prawu AB 2655 będzie jedną z kluczowych w tej debacie, a jej wynik może wyznaczyć przyszły kierunek regulacji dotyczących sztucznej inteligencji i deepfake’ów w kontekście politycznym.