Nowa funkcja wyszukiwania oparta na sztucznej inteligencji, ChatGPT Search, która niedawno została udostępniona użytkownikom, wzbudza kontrowersje związane z możliwością manipulacji danymi. Według brytyjskiej gazety „The Guardian”, algorytm ChatGPT może być oszukiwany w celu generowania mylących, a nawet całkowicie fałszywych podsumowań.
Celem wyszukiwarki ChatGPT jest usprawnienie przeglądania treści, między innymi poprzez tworzenie skrótowych podsumowań recenzji produktów dostępnych na stronach internetowych. Jednakże, jak zauważyli dziennikarze „The Guardian”, możliwe jest zmanipulowanie systemu ChatGPT Search tak, aby ignorował negatywne opinie. W testach udało się to osiągnąć poprzez umieszczanie ukrytego tekstu na stronach internetowych stworzonych na potrzeby eksperymentu. Dzięki temu mechanizm generował jedynie pozytywne podsumowania treści. Co więcej, ta sama luka umożliwia generowanie złośliwego kodu, co rodzi poważne obawy o bezpieczeństwo użytkowników i wiarygodność narzędzia.
Ataki oparte na ukrytym tekście to znany problem wśród dużych modeli językowych, które wykorzystują potężne algorytmy do przetwarzania ogromnych ilości danych. Jednak po raz pierwszy udowodniono, że tego typu manipulacje są możliwe w działającej, publicznie dostępnej wyszukiwarce napędzanej AI. Eksperci podkreślają, że Google – lider na rynku wyszukiwarek – posiada dużo większe doświadczenie w radzeniu sobie z podobnymi trudnościami. Tymczasem fakt, że takie incydenty wychodzą na światło dzienne w przypadku nowego narzędzia OpenAI, jest sygnałem ostrzegawczym zarówno dla twórców oprogramowania, jak i użytkowników.
OpenAI, firma stojąca za ChatGPT, nie udzieliła bezpośredniego komentarza na temat tego incydentu. W odpowiedzi na zapytania medialne podkreślono jednak, że zastosowane są liczne mechanizmy zabezpieczające przed potencjalnymi zagrożeniami oraz że firma nieustannie pracuje nad ulepszaniem swojego produktu. Niemniej jednak incydent pokazuje, że obecny poziom zabezpieczeń może być niewystarczający, zwłaszcza w czasie, gdy narzędzia AI stają się coraz bardziej złożone i wszechobecne.
Z danych eksperymentalnych wynika, że technologia oparta na AI wymaga dużo większej uwagi w kontekście etyki, wdrażania zabezpieczeń i reagowania na potencjalne luki w systemie. Użytkownicy, zarówno indywidualni, jak i instytucje, muszą być bardzo ostrożni w korzystaniu z takich narzędzi, zwłaszcza gdy w grę wchodzą informacje ważne dla podejmowania decyzji. Transparentność oraz szybka reakcja ze strony twórców oprogramowania to kluczowe elementy w procesie budowy zaufania do tego typu rozwiązań.
Dynamiczny rozwój technologii AI otwiera przed nami ogromne możliwości, ale jednocześnie niesie za sobą ryzyko nowych form nadużyć. Incydent z funkcją ChatGPT Search to ważna lekcja zarówno dla twórców oprogramowania, jak i użytkowników końcowych. Pokazuje, że mimo zaawansowania technologicznego, ciągle istnieje potrzeba doskonalenia systemów tak, aby były nie tylko użyteczne, ale również bezpieczne.