Generowanie deepfake’ów w obecnych czasach stało się banalnie proste i tanie. Na przykład, stworzenie realistycznego nagrania głosowego, które naśladowało głos Kamali Harris, zajęło autorowi tekstu jedynie 2 minuty i kosztowało zaledwie 5 dolarów. To pokazuje, jak wszechobecne i dostępne narzędzia generatywnej sztucznej inteligencji (AI) otworzyły drzwi szeroko dla dezinformacji. Problem ten staje się coraz bardziej palący, ponieważ technologia, która była kiedyś zarezerwowana dla specjalistów, jest teraz w zasięgu ręki każdego, kto posiada internet.
Jak łatwo stworzyć deepfake?
Podczas eksperymentu użyto narzędzia Cartesia Voice Changer, które umożliwia zmianę głosu użytkownika na głos innej osoby, przy jednoczesnym zachowaniu naturalnej melodyki mowy. Narzędzie to może stworzyć cyfrowy odpowiednik głosu innej osoby z 10-sekundowego nagrania. W tym przypadku wykorzystano publicznie dostępne fragmenty przemówień Kamali Harris, by „sklonować” jej głos i zastosować go w narzędziu. Efekt był bardzo przekonujący.
Co ciekawe, Cartesia wymaga od użytkowników zaznaczenia odpowiedniego pola, że nie będą oni tworzyć treści szkodliwych ani nielegalnych. Jednakże, jest to tylko „system zaufania”, bez rzeczywistych zabezpieczeń przed nadużyciami. Jak pokazuje ten eksperyment, osoba z dostępem do narzędzi może stworzyć dowolną ilość potencjalnie szkodliwych treści, bez przeszkód.
Brak zabezpieczeń stwarza poważne zagrożenia
To, co sprawia, że sytuacja jest tak alarmująca, to fakt, że narzędzia takie jak Cartesia nie mają odpowiednich środków zapobiegawczych, aby zapobiec tworzeniu szkodliwych deepfake’ów. Choć istnieją pewne rozwiązania, takie jak weryfikacja głosu, które mogłyby pomóc w identyfikacji fałszywych nagrań, rzeczywistość jest taka, że branża technologiczna nie nadąża za postępem w tej dziedzinie. W rzeczywistości, zanim jedno narzędzie wprowadzi takie zabezpieczenia, na rynku pojawi się kolejne, które oferuje podobne możliwości bez jakichkolwiek ograniczeń.
Co możemy zrobić, by przeciwdziałać dezinformacji?
Temat ten był poruszany na licznych konferencjach technologicznych, gdzie eksperci zastanawiali się, jak można przeciwdziałać rozprzestrzenianiu się fałszywych treści generowanych przez AI. Jednym z rozwiązań mogą być niewidoczne „znaki wodne” w treściach generowanych przez AI, które pozwolą na identyfikację, czy dana treść została stworzona przy użyciu sztucznej inteligencji. Inne podejścia to regulacje prawne, jak choćby Online Safety Act w Wielkiej Brytanii, które mogą pomóc w ograniczeniu fal dezinformacji.
Niestety, sytuacja wydaje się coraz bardziej pesymistyczna. Jak powiedział Imran Ahmed, CEO Center for Countering Digital Hate, mamy do czynienia z „perpetualną maszyną bzdur” (ang. perpetual bulls* machine), która stale produkuje fałszywe treści. Dezinformacja, szczególnie ta generowana przez AI, rozprzestrzenia się w zawrotnym tempie, a niektóre z jej najbardziej znanych przypadków obejmują boty na platformie X (dawniej Twitter), które miały na celu wpłynąć na wybory w USA, czy fałszywe wiadomości głosowe sugerujące mieszkańcom New Hampshire, aby nie głosowali.
Skala problemu i rosnące zagrożenia
Jak wynika z danych World Economic Forum, liczba deepfake’ów wzrosła o 900% w latach 2019-2020. Niestety, prawo wciąż nie nadąża za technologią. Wciąż istnieje niewiele przepisów, które skutecznie regulują wykorzystanie deepfake’ów, a wykrywanie takich fałszywych treści to prawdziwy wyścig zbrojeń. Ostatecznie większość narzędzi generatywnych, nawet jeśli wprowadzą zabezpieczenia, jak np. znakowanie treści, może być używana z zamiarem celowego wyrządzenia szkody.
Co możemy zrobić?
W świecie, w którym prawda i fałsz coraz bardziej się zacierają, najlepszym rozwiązaniem może być większy sceptycyzm wobec treści internetowych, a zwłaszcza tych, które stają się wiralowe. Kluczowe jest, by użytkownicy sieci byli świadomi tego, co udostępniają dalej. Choć może się to wydawać niewielkim działaniem, to ma ono ogromne znaczenie w walce z dezinformacją.
Nowości ze świata AI
1. ChatGPT Search: Nowa funkcja wyszukiwania w ChatGPT od OpenAI jest imponująca, ale nadal nieco niedokładna, zwłaszcza w przypadku krótkich zapytań.
2. Dostawy dronami od Amazona: Amazon rozpoczął dostawy dronami w rejonie Phoenix, po zakończeniu podobnego programu w Kalifornii.
3. Meta i OpenAI: Była szefowa działu AR w Meta dołączyła do OpenAI, aby rozwijać projekty związane z robotyką i sprzętem konsumenckim.
4. Apple przejmuje Pixelmator: Narzędzie do edycji obrazów Pixelmator zostało przejęte przez Apple, co zwiększa zaangażowanie firmy w rozwój AI w swoich aplikacjach do edycji zdjęć.
Badania: AI podatne na pop-upy
Nowe badania pokazują, że AI może zostać oszukane przez „adwersarialne pop-upy”. Modele AI, które mają za zadanie wykonywać określone czynności, mogą zostać zmanipulowane przez okna pop-up, które nakazują im wykonywanie działań, takich jak pobieranie złośliwych plików. Badania te pokazują, że modele często nie potrafią ignorować takich pułapek.
Model tygodnia: Defense Llama
Meta ogłosiła współpracę z partnerami w celu stworzenia specjalnej wersji swojego modelu Llama do zastosowań obronnych. Defense Llama ma wspierać amerykańskie misje wojskowe i wywiadowcze, odpowiadając na pytania związane z taktyką wojskową. Model ten został dostosowany do analizy treści związanych z wojskowością, jednak wciąż nie jest jasne, jak szeroko będzie stosowany w siłach zbrojnych USA.
Podsumowanie
W obliczu coraz bardziej dostępnych technologii generatywnych, takich jak deepfake, świat staje przed dylematem: jak kontrolować dezinformację w erze sztucznej inteligencji? Chociaż pojawiają się rozwiązania, takie jak znaki wodne czy regulacje prawne, problem ten wydaje się wciąż narastać. Ostatecznie, kluczowym czynnikiem może okazać się większa odpowiedzialność i ostrożność samych użytkowników internetu.