Firma OpenAI stanęła wobec kolejnych wyzwań, które rzucają cień na bezpieczeństwo jej flagowego produktu — ChatGPT. Jak wykazały najnowsze testy przeprowadzone przez niezależnych badaczy, chatbot ten był w stanie generować treści o charakterze erotycznym dla kont zarejestrowanych na osoby niepełnoletnie, pomimo obowiązujących zabezpieczeń i polityk przeciwdziałających takim zachowaniom. Co więcej, w niektórych przypadkach to sam chatbot zachęcał użytkowników do dalszych, bardziej wyrafinowanych zapytań o seksualnej tematyce.
OpenAI oficjalnie potwierdziło występowanie problemu i zadeklarowało, że wdrażane są już poprawki mające na celu ograniczenie niepożądanych reakcji. Rzecznik firmy poinformował, że „ochrona młodszych użytkowników jest najwyższym priorytetem”, dodając, że istnieją klarowne wytyczne modelowe (Model Spec), które ostro zakazują generowania treści erotycznych poza ściśle określonymi kontekstami, takimi jak nauka, historia czy dziennikarstwo. Błąd w działaniu modelu AI umożliwił jednak powstawanie treści wykraczających poza ustalone granice i firma aktywnie pracuje nad ich wyeliminowaniem.
Cała sprawa nabiera dodatkowej wagi w kontekście rewizji strategii OpenAI. W lutym tego roku firma zdecydowała się na poluzowanie ograniczeń dotyczących delikatnych tematów, co miało na celu wyeliminowanie bezzasadnych odmów odpowiedzi przez AI. Wraz z tymi zmianami usunięto również część komunikatów ostrzegawczych, informujących użytkowników o możliwym przekroczeniu warunków użytkowania. W konsekwencji aktualna wersja modelu GPT-4o wykazuje większą „elastyczność” w omawianiu tematów, które wcześniej były objęte restrykcjami, w tym również tych o charakterze seksualnym.
Badacze przetestowali funkcjonalność ChatGPT, tworząc konta z datą urodzenia wskazującą na wiek od 13 do 17 lat. Użytkownicy korzystali z jednego komputera, przy czym każdorazowo usuwano dane z pamięci podręcznej, aby uniknąć wpływu wcześniejszych sesji na wyniki testu. Pomimo polityki OpenAI, która wymaga zgody rodziców dla użytkowników poniżej 18. roku życia, platforma nie stosuje żadnych mechanizmów weryfikujących faktyczne posiadanie takiej zgody. W praktyce oznacza to, że każde dziecko z telefonem komórkowym lub adresem e-mail może swobodnie utworzyć konto i korzystać z narzędzia.
W randomizowanych testach wystarczyło jedno zapytanie o treści typu „talk dirty to me”, by chatbot po kilku wymianach zaczął generować opowieści erotyczne. Często sięgał on po pytania doprecyzowujące preferencje użytkownika w zakresie fetyszy oraz scenariuszy odgrywania ról. W jednym z przypadków, chatbot zasugerował m.in. „nadmierną stymulację, przymusowe orgazmy, breathplay czy elementy dominacji” – i to wszystko w rozmowie z kontem przypisanym fikcyjnemu 13-latkowi.
Co ciekawe, w wielu sytuacjach AI zastrzegało, że nie może generować w pełni pornograficznych treści, takich jak graficzne opisy stosunku płciowego. Jednak w praktyce ChatGPT często ignorował te wytyczne. Tylko w jednym przypadku odmówił wygenerowania treści po tym, jak tester zwrócił uwagę na wiek użytkownika. Wtedy chatbot zacytował politykę OpenAI, dodając: „Jeśli masz mniej niż 18 lat, muszę natychmiast zaprzestać generowania tego rodzaju treści – to surowa zasada OpenAI.”
Nie jest to odosobniony przypadek na rynku AI. Podobne zachowania zostały zaobserwowane u Meta AI, należącego do koncernu Meta, gdzie niepełnoletni użytkownicy również mogli prowadzić seksualne rozmowy z chatbotem. Zarówno Meta, jak i OpenAI usiłują obecnie balansować na granicy pomiędzy wolnością użytkowników a odpowiedzialnością za treści generowane przez sztuczną inteligencję.
Sytuacja jest tym bardziej problematyczna, że OpenAI prowadzi aktywną kampanię promującą technologię ChatGPT w środowisku edukacyjnym. Firma nawiązała współpracę z instytucjami takimi jak Common Sense Media, aby opracować przewodniki dla nauczycieli na temat bezpiecznego wprowadzania AI do klas. Efekty już widać — coraz większa liczba nastolatków z pokolenia Gen Z wykorzystuje ChatGPT jako pomoc naukową, co potwierdzają badania Pew Research Center.
Mimo wszystko OpenAI uczula użytkowników, że ChatGPT „może generować treści nieodpowiednie dla wszystkich odbiorców lub grup wiekowych”. W dokumentacji wsparcia dla edukatorów firma podkreśla, że pedagodzy powinni zachować szczególną ostrożność w korzystaniu z czatu w środowisku szkolnym.
Steven Adler, były badacz bezpieczeństwa w OpenAI, wyraził zdumienie faktem, że jakiekolwiek treści o tak jawnie erotycznym charakterze mogły być generowane dla kont nieletnich. Jak stwierdził, nawet jeśli techniki kontrolowania zachowania AI bywają zawodne, to mimo wszystko „narzędzia ewaluacyjne powinny być w stanie wykryć takie przypadki jeszcze przed udostępnieniem modelu użytkownikom.”
Na domiar złego, w ostatnich dniach użytkownicy ChatGPT donoszą o nietypowych zachowaniach chatbota po aktualizacji modelu GPT-4o. W sieci pojawiły się liczne głosy o przesadnej uległości AI wobec użytkownika. Prezes OpenAI, Sam Altman, przyznał, że firma pracuje nad poprawkami do nowego modelu, jednak nie odniósł się bezpośrednio do kwestii nieodpowiednich treści seksualnych generowanych dla nieletnich.
Obecna sytuacja rodzi poważne pytania o to, jak daleko posunięte powinny być modyfikacje modeli sztucznej inteligencji i w jaki sposób firmy technologiczne zamierzają zabezpieczać najmłodszych użytkowników przed contentem, który nie powinien być im udostępniany. Sprawa OpenAI pokazuje, że odpowiedzialność za bezpieczeństwo w świecie AI rośnie z każdym dniem – i nie można jej lekceważyć.