Wykorzystanie AI w kampaniach dezinformacyjnych: Rosyjska operacja „Undercut”
Sztuczna inteligencja generatywna od lat budzi kontrowersje ze względu na swoje potencjalne nadużycia. Wystarczy wspomnieć o tworzeniu fałszywych publikacji naukowych czy kopiowaniu stylów artystycznych bez zgody twórców. Teraz jednak pojawiły się nowe dowody na to, iż AI jest wykorzystywana w operacjach dezinformacyjnych na poziomie państwowym.
Operacja „Undercut” – manipulacja AI głosem w służbie propagandy
Najnowsze badania przeprowadzone przez Recorded Future, amerykańską firmę zajmującą się wywiadem zagrożeń, ujawniają szczegóły kampanii dezinformacyjnej powiązanej z Rosją o nazwie „Operation Undercut”. Celem tej operacji było osłabienie wsparcia Europy dla Ukrainy poprzez publikację fałszywych wiadomości i zmanipulowanych treści wideo. Istotnym elementem tej kampanii były głosy wygenerowane za pomocą komercyjnych narzędzi AI, takich jak technologia oferowana przez ElevenLabs.
W ramach kampanii publikowano wideo, w których kwestionowano pomoc militarną dla Ukrainy, a także oskarżano ukraińskich polityków o korupcję. Przykładowo, w jednym z materiałów propagandowych sugerowano, że nawet amerykańskie czołgi Abrams są bezsilne wobec rosyjskiej technologii, przekazując mylną informację, że wysyłanie zaawansowanego sprzętu wojskowego do Ukrainy jest bezcelowe.
Jak działała technologia AI?
Według raportu Recorded Future, twórcy tych materiałów wykorzystywali oprogramowanie do generowania głosu AI, w tym technologię ElevenLabs. Aby to zweryfikować, przeprowadzono analizę dźwięku za pomocą narzędzia ElevenLabs AI Speech Classifier, które potwierdziło, że niektóre z nagrań rzeczywiście powstały za pomocą tej technologii. Dzięki wykorzystaniu AI, materiały mogły być szybko tłumaczone i dostosowywane do wielu języków europejskich, takich jak angielski, francuski, niemiecki czy polski, co ułatwiło ich rozpowszechnianie w różnych krajach.
Co ciekawe, same błędy twórców kampanii ukazały skuteczność AI. Niektóre z filmów zawierały głosy nagrane przez ludzi, w których wyraźnie dało się usłyszeć rosyjski akcent. Dla porównania, głosy wygenerowane przez AI brzmiały naturalnie, bez żadnych obcych akcentów, co znacznie zwiększało wiarygodność fałszywych treści.
Kto stoi za operacją?
Recorded Future przypisuje te działania rosyjskiej organizacji Social Design Agency, która została objęta sankcjami przez rząd Stanów Zjednoczonych w marcu tego roku. Grupa ta, działająca na zlecenie rządu Federacji Rosyjskiej, prowadziła sieć ponad 60 fałszywych stron internetowych, które imitowały autentyczne europejskie serwisy informacyjne. Fałszywe wiadomości były następnie promowane za pomocą fikcyjnych kont w mediach społecznościowych.
Minimalny wpływ na opinię publiczną
Pomimo zaawansowania technologicznego i szerokiego zakresu kampanii, Recorded Future oceniło, że jej wpływ na opinię publiczną w Europie był minimalny. Jednak przypadek ten zwraca uwagę na rosnące ryzyko wykorzystania sztucznej inteligencji w manipulacji informacją oraz potrzebę wdrażania skutecznych narzędzi do wykrywania tego rodzaju oszustw.
ElevenLabs i problem nadużywania technologii
To nie pierwszy raz, gdy produkty ElevenLabs zostały wykorzystane w sposób budzący kontrowersje. W styczniu 2024 roku technologia firmy posłużyła do stworzenia robocalla, w którym fałszywie podszywano się pod prezydenta Joe Bidena, zniechęcając wyborców do udziału w prawyborach. Po tym incydencie ElevenLabs wprowadziło nowe zabezpieczenia, takie jak automatyczne blokowanie głosów polityków, oraz zaostrzyło zasady użytkowania.
Firma jasno określa w swojej polityce, że zakazuje „nieautoryzowanego, szkodliwego lub wprowadzającego w błąd podszywania się”. Do egzekwowania tych zasad wykorzystywane są zarówno narzędzia automatyczne, jak i moderacja manualna. Pomimo kontrowersji, ElevenLabs odnotowuje dynamiczny rozwój – w 2024 roku jej wartość może osiągnąć 3 miliardy dolarów, a przychody firmy wzrosły w ciągu roku z 25 milionów do 80 milionów dolarów.
Podsumowanie
Przypadek rosyjskiej kampanii dezinformacyjnej „Operation Undercut” pokazuje, jak zaawansowane technologie AI mogą być wykorzystywane w celach manipulacyjnych. Chociaż wpływ tej konkretnej operacji na opinię publiczną był ograniczony, wydarzenia te zwracają uwagę na potrzebę opracowania skutecznych narzędzi do rozpoznawania treści generowanych przez AI. Przyszłość tej technologii niesie ogromne możliwości, ale także wyzwania, którym społeczność międzynarodowa musi sprostać, aby zapobiec jej nadużyciom.