Zagrożenie dezinformacją generowaną przez AI – nie jesteś jej celem… jeszcze
Wielu obawiało się, że wybory w 2024 roku zostaną poważnie zakłócone, a może nawet całkowicie zdominowane przez dezinformację generowaną przez sztuczną inteligencję. Choć rzeczywiście pojawiły się pewne przypadki tego typu działań, to skala problemu była znacznie mniejsza, niż początkowo przewidywano. Jednak nie daj się zwieść – zagrożenie dezinformacją AI jest jak najbardziej realne. W rzeczywistości, to możliwe, że nie jesteś jej celem… przynajmniej na razie.
Różnorodność deepfake'ów – problem nieoczywisty
Oren Etzioni, badacz AI i założyciel organizacji non-profit TrueMedia, specjalizującej się w badaniu i zwalczaniu dezinformacji generowanej przez AI, wskazuje na istnienie wielu różnych odmian deepfake’ów. Każdy z nich służy innemu celowi, a niektóre są bardziej zauważalne niż inne. Jak sam mówi: „Za każdym przypadkiem, o którym słyszysz, kryje się setka innych, które nie są skierowane do ciebie. Może nawet tysiąc. To tylko wierzchołek góry lodowej, który dociera do mainstreamowych mediów”.
Dlaczego tak się dzieje? Zasadniczo wiele osób, szczególnie w Stanach Zjednoczonych, wierzy, że ich doświadczenia są powszechne i odzwierciedlają rzeczywistość innych ludzi. Tymczasem w kontekście kampanii dezinformacyjnych to nieprawda. Etzioni tłumaczy, że USA są stosunkowo trudnym celem, ponieważ społeczeństwo ma dostęp do dobrze poinformowanych źródeł oraz w miarę zaufane media. Jednak w innych częściach świata sytuacja wygląda zupełnie inaczej.
Nie tylko celebryci są celem
Kiedy myślimy o deepfake’ach, często wyobrażamy sobie filmy z celebrytami, jak np. Taylor Swift, mówiącą coś, czego nigdy by nie powiedziała. Jednak prawdziwie niebezpieczne deepfake’i to nie te, które dotyczą znanych postaci, ale te, które przedstawiają sytuacje lub osoby trudne do zidentyfikowania i obalenia. „Największym problemem jest różnorodność deepfake’ów”, podkreśla Etzioni. Przykładem może być fałszywe nagranie irańskich samolotów nad Izraelem – coś, co nigdy się nie wydarzyło, ale nie jest łatwe do zweryfikowania przez osoby, które nie są na miejscu.
Tego typu dezinformacja krąży nie w ogólnie dostępnych mediach, ale na zamkniętych platformach, takich jak Telegram czy określone grupy na WhatsApp. Miliony ludzi są narażone na takie treści, mimo że wielu z nas nigdy ich nie zobaczy.
TrueMedia – walka z dezinformacją
TrueMedia oferuje bezpłatną usługę wykrywania fałszywych obrazów, filmów, nagrań audio i innych treści. Proces ten jest skomplikowany i nie może być w pełni zautomatyzowany, jednak organizacja stale buduje fundamenty oparte na materiałach, które pozwalają na weryfikację prawdziwości. „Nasza główna misja to wykrywanie”, wyjaśnia Etzioni. „Trenujemy nasze modele na podstawie danych przesyłanych przez ludzi z całego świata, analizujemy opinie różnych dostawców technologii i na tej podstawie wyciągamy wnioski”.
Proces ten jest wspierany przez zespół specjalistów zajmujących się dogłębną analizą, co pozwala na jeszcze dokładniejsze ustalanie prawdy. „Nie przypisujemy wartości prawdziwości, dopóki nie jesteśmy pewni. Możemy się mylić, ale jesteśmy znacznie lepsi niż jakiekolwiek inne rozwiązanie”.
Trzy kluczowe pytania dotyczące dezinformacji
Etzioni wskazuje na trzy główne kwestie, które wymagają dalszych badań w kontekście dezinformacji generowanej przez AI:
1. Ile tego jest? – „Nie mamy dokładnych danych. Nie istnieje żaden rodzaj 'Google’ do wyszukiwania dezinformacji. Wiemy, że problem jest rozległy, ale dokładne jego wymierzenie jest ekstremalnie trudne, a może nawet niemożliwe”.
2. Ilu ludzi to widzi? – „Tutaj sprawa jest łatwiejsza. Kiedy Elon Musk udostępnia coś, widzimy licznik: ’10 milionów ludzi to zobaczyło’. Liczba odbiorców sięga setek milionów. Co tydzień natykam się na treści, które zostały wyświetlone miliony razy”.
3. Jaki to ma wpływ? – „To kluczowe pytanie. Ilu wyborców zrezygnowało z głosowania przez fałszywe telefony rzekomo od Joe Bidena? Nie mamy narzędzi do precyzyjnego mierzenia tego wpływu. Przykład ze Słowacji, gdzie kampania dezinformacyjna w ostatniej chwili przyczyniła się do porażki kandydata, pokazuje, że takie działania mogą mieć ogromny wpływ”.
Nadzieja na przyszłość
Choć problem jest ogromny i wciąż się rozwija, Etzioni jest optymistą co do przyszłości. „Odważna prognoza? W ciągu najbliższych czterech lat znacznie poprawimy naszą zdolność do mierzenia tego problemu. Będziemy musieli. Na ten moment staramy się po prostu sobie z tym radzić”.
Przytaczając przykłady technologicznych prób rozwiązania problemu, takich jak znakowanie treści generowanych przez AI, Etzioni podkreśla, że choć mogą one być pomocne, to są niewystarczające. „To tak, jakby próbować walczyć z bronią za pomocą znaku wodnego. Współpraca w takich ekosystemach może być owocna, ale nie chroni nas przed złośliwymi aktorami, którzy chcą uniknąć wykrycia”.
Co nas czeka?
Choć wybory w 2024 roku odbyły się bez masowych manipulacji AI, to nie oznacza, że zagrożenie nie istnieje. Może to być jeszcze bardziej niepokojące – twórcy generatywnej dezinformacji po prostu nie uznali, że muszą się angażować w tym momencie. Czy to powinno nas uspokoić, czy raczej niepokoić? Odpowiedź na to pytanie zależy od indywidualnej oceny.
Jedno jest pewne: zjawisko dezinformacji generowanej przez AI nie zniknie, a my musimy być na nie coraz bardziej przygotowani.