Jak technologia sztucznej inteligencji zmienia relacje wydawców z treściami cyfrowymi? Temat ten zyskał na znaczeniu w obliczu rosnącego zastosowania narzędzi takich jak ChatGPT, rozwijanych przez OpenAI. Najnowsze badanie przeprowadzone przez Tow Center for Digital Journalism rzuca jednak cień na poprawność i wiarygodność cytowań generowanych przez ChatGPT, co budzi poważne pytania zarówno o przyszłość dziennikarstwa, jak i o etyczne aspekty korzystania z takich technologii.
Niepewność w precyzji cytowań
Badania przeprowadzone przez Columbia Journalism School przyglądały się sposobowi, w jaki ChatGPT identyfikuje źródła treści. Naukowcy przeanalizowali 200 cytatów z publikacji 20 losowo wybranych wydawców, takich jak The New York Times, The Washington Post czy The Financial Times. Ich celem było sprawdzenie, czy sztuczna inteligencja poprawnie wskazuje źródła cytowanych treści – niezależnie od tego, czy wydawcy zawarli licencje z OpenAI, czy też ich treści były przez nią blokowane.
Wnioski, które przyniosło badanie, są niepokojące. ChatGPT często wprowadza użytkowników w błąd, przedstawiając niepoprawne lub częściowo poprawne cytowania. Co więcej, nawet w przypadkach, gdzie wydawcy współpracują z OpenAI, nie ma gwarancji, że generowane cytaty będą wierne oryginalnym treściom. Badanie wykazało, że na 200 cytatów aż 153 były w pełni lub częściowo błędne. Tylko w 7 przypadkach chatbot otwarcie przyznał, że nie jest w stanie znaleźć dokładnego źródła.
Ryzyko dezinformacji i błędnych cytowań
Jednym z głównych problemów związanych z ChatGPT jest jego skłonność do „konfabulacji”, czyli wymyślania treści, gdy nie jest w stanie znaleźć poprawnej odpowiedzi. Takie zachowanie może prowadzić do sytuacji, w których chatbot błędnie przypisuje cytaty do niewłaściwych źródeł lub wręcz powiela plagiatowane treści, które wcześniej zostały skopiowane bez przypisania oryginalnego autora. Przykładem jest sytuacja opisana w badaniu, gdzie ChatGPT przypisał głęboko analizowany artykuł z The New York Times stronie internetowej, która po prostu skopiowała jego treść.
Dla wydawców takie praktyki mogą mieć poważne konsekwencje. Po pierwsze, mogą prowadzić do uszczerbku na reputacji – jeśli chatbot przypisze błędną treść, użytkownicy mogą podważać ich wiarygodność. Po drugie, istnieje ryzyko utraty ruchu na strony wydawców, gdy użytkownicy zostaną skierowani do źródeł, które nie są oryginalnym miejscem publikacji treści.
Technologia ignorująca kontekst
Kluczowym zarzutem wobec ChatGPT jest traktowanie dziennikarstwa jako zestawu „zdecontextualizowanych” danych, czyli treści oderwanych od kontekstu ich powstania. Zamiast uwzględniać specyfikę oryginalnych tekstów, chatbot wykorzystuje fragmenty w sposób, który często nie oddaje ich pierwotnego znaczenia lub celu. Dodatkowo, odpowiedzi generowane przez ChatGPT różnią się przy każdym zapytaniu, co jeszcze bardziej podważa wiarygodność i spójność generowanych informacji.
Na przykład, w testach przeprowadzonych przez badaczy, chatbot wielokrotnie zmieniał źródła cytatów przy tych samych zapytaniach. Tego rodzaju zmienność może być typowa dla narzędzi generatywnej sztucznej inteligencji, ale w kontekście dziennikarstwa i precyzyjnego cytowania stanowi to poważny problem.
Brak kontroli ze strony wydawców
Badanie wykazało, że wydawcy mają obecnie „bardzo ograniczony wpływ” na sposób, w jaki ich treści są wykorzystywane przez ChatGPT – niezależnie od tego, czy pozwalają na indeksowanie swoich treści, zawierają umowy licencyjne, czy też blokują dostęp dla botów. Nawet całkowite zablokowanie crawlerów OpenAI nie eliminuje ryzyka błędnych cytowań. Przykładem może być The New York Times, który mimo to wciąż pojawia się w generowanych odpowiedziach ChatGPT, często w niewłaściwym kontekście.
Dla wielu wydawców, którzy zawarli umowy licencyjne z OpenAI, nadzieją było uzyskanie lepszego traktowania ich treści w porównaniu do konkurencji. Tymczasem badanie pokazuje, że nawet w takich przypadkach nie ma żadnych gwarancji poprawności generowanych odpowiedzi.
Odpowiedź OpenAI
OpenAI odniosło się do wyników badania, twierdząc, że przeprowadzone testy są „nietypowe” i nie odzwierciedlają rzeczywistego użytkowania ich produktu. Firma zapewnia, że dąży do poprawy dokładności cytowań poprzez współpracę z partnerami, ulepszanie swoich algorytmów oraz umożliwienie zarządzania dostępem poprzez plik robots.txt. Jednakże, jak pokazuje badanie, przed OpenAI stoi jeszcze długa droga, zanim technologia stanie się narzędziem w pełni wspierającym rzetelność dziennikarską.
Podsumowanie
W obliczu dynamicznego rozwoju technologii generatywnej sztucznej inteligencji, takich jak ChatGPT, wydawcy stoją przed licznymi wyzwaniami. Błędy w cytowaniach, ryzyko dezinformacji i brak kontroli nad treściami to tylko niektóre z problemów, które wymagają pilnego rozwiązania. Badanie Tow Center for Digital Journalism podkreśla konieczność stworzenia bardziej przejrzystych zasad współpracy pomiędzy firmami technologicznymi a wydawcami, a także rozwoju narzędzi, które będą w stanie wiernie oddawać kontekst i treść dziennikarską.
Na razie jednak, dla wydawców korzystających z ChatGPT lub mających nadzieję na poprawę swojego zasięgu dzięki tej technologii, pozostaje wiele znaków zapytania na temat przyszłości ich relacji z generatywną sztuczną inteligencją.