Apple Planet
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI
No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
sobota, 10 maja, 2025
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi
No Result
View All Result
Apple Planet
No Result
View All Result
Home Sztuczna inteligencja AI

Analiza cytowań ChatGPT ujawnia niepokojące dane dla wydawców

od Pan z ApplePlanet
30 listopada, 2024
w Sztuczna inteligencja AI
0
Analiza cytowań ChatGPT ujawnia niepokojące dane dla wydawców
465
SHARES
1.5k
VIEWS
Udostępnij na FacebookuUdostępnij na Tweeterze

Jak technologia sztucznej inteligencji zmienia relacje wydawców z treściami cyfrowymi? Temat ten zyskał na znaczeniu w obliczu rosnącego zastosowania narzędzi takich jak ChatGPT, rozwijanych przez OpenAI. Najnowsze badanie przeprowadzone przez Tow Center for Digital Journalism rzuca jednak cień na poprawność i wiarygodność cytowań generowanych przez ChatGPT, co budzi poważne pytania zarówno o przyszłość dziennikarstwa, jak i o etyczne aspekty korzystania z takich technologii.

Niepewność w precyzji cytowań

Badania przeprowadzone przez Columbia Journalism School przyglądały się sposobowi, w jaki ChatGPT identyfikuje źródła treści. Naukowcy przeanalizowali 200 cytatów z publikacji 20 losowo wybranych wydawców, takich jak The New York Times, The Washington Post czy The Financial Times. Ich celem było sprawdzenie, czy sztuczna inteligencja poprawnie wskazuje źródła cytowanych treści – niezależnie od tego, czy wydawcy zawarli licencje z OpenAI, czy też ich treści były przez nią blokowane.

Wnioski, które przyniosło badanie, są niepokojące. ChatGPT często wprowadza użytkowników w błąd, przedstawiając niepoprawne lub częściowo poprawne cytowania. Co więcej, nawet w przypadkach, gdzie wydawcy współpracują z OpenAI, nie ma gwarancji, że generowane cytaty będą wierne oryginalnym treściom. Badanie wykazało, że na 200 cytatów aż 153 były w pełni lub częściowo błędne. Tylko w 7 przypadkach chatbot otwarcie przyznał, że nie jest w stanie znaleźć dokładnego źródła.

Ryzyko dezinformacji i błędnych cytowań

Jednym z głównych problemów związanych z ChatGPT jest jego skłonność do „konfabulacji”, czyli wymyślania treści, gdy nie jest w stanie znaleźć poprawnej odpowiedzi. Takie zachowanie może prowadzić do sytuacji, w których chatbot błędnie przypisuje cytaty do niewłaściwych źródeł lub wręcz powiela plagiatowane treści, które wcześniej zostały skopiowane bez przypisania oryginalnego autora. Przykładem jest sytuacja opisana w badaniu, gdzie ChatGPT przypisał głęboko analizowany artykuł z The New York Times stronie internetowej, która po prostu skopiowała jego treść.

Dla wydawców takie praktyki mogą mieć poważne konsekwencje. Po pierwsze, mogą prowadzić do uszczerbku na reputacji – jeśli chatbot przypisze błędną treść, użytkownicy mogą podważać ich wiarygodność. Po drugie, istnieje ryzyko utraty ruchu na strony wydawców, gdy użytkownicy zostaną skierowani do źródeł, które nie są oryginalnym miejscem publikacji treści.

Technologia ignorująca kontekst

Kluczowym zarzutem wobec ChatGPT jest traktowanie dziennikarstwa jako zestawu „zdecontextualizowanych” danych, czyli treści oderwanych od kontekstu ich powstania. Zamiast uwzględniać specyfikę oryginalnych tekstów, chatbot wykorzystuje fragmenty w sposób, który często nie oddaje ich pierwotnego znaczenia lub celu. Dodatkowo, odpowiedzi generowane przez ChatGPT różnią się przy każdym zapytaniu, co jeszcze bardziej podważa wiarygodność i spójność generowanych informacji.

Na przykład, w testach przeprowadzonych przez badaczy, chatbot wielokrotnie zmieniał źródła cytatów przy tych samych zapytaniach. Tego rodzaju zmienność może być typowa dla narzędzi generatywnej sztucznej inteligencji, ale w kontekście dziennikarstwa i precyzyjnego cytowania stanowi to poważny problem.

Brak kontroli ze strony wydawców

Badanie wykazało, że wydawcy mają obecnie „bardzo ograniczony wpływ” na sposób, w jaki ich treści są wykorzystywane przez ChatGPT – niezależnie od tego, czy pozwalają na indeksowanie swoich treści, zawierają umowy licencyjne, czy też blokują dostęp dla botów. Nawet całkowite zablokowanie crawlerów OpenAI nie eliminuje ryzyka błędnych cytowań. Przykładem może być The New York Times, który mimo to wciąż pojawia się w generowanych odpowiedziach ChatGPT, często w niewłaściwym kontekście.

Dla wielu wydawców, którzy zawarli umowy licencyjne z OpenAI, nadzieją było uzyskanie lepszego traktowania ich treści w porównaniu do konkurencji. Tymczasem badanie pokazuje, że nawet w takich przypadkach nie ma żadnych gwarancji poprawności generowanych odpowiedzi.

Odpowiedź OpenAI

OpenAI odniosło się do wyników badania, twierdząc, że przeprowadzone testy są „nietypowe” i nie odzwierciedlają rzeczywistego użytkowania ich produktu. Firma zapewnia, że dąży do poprawy dokładności cytowań poprzez współpracę z partnerami, ulepszanie swoich algorytmów oraz umożliwienie zarządzania dostępem poprzez plik robots.txt. Jednakże, jak pokazuje badanie, przed OpenAI stoi jeszcze długa droga, zanim technologia stanie się narzędziem w pełni wspierającym rzetelność dziennikarską.

Podsumowanie

W obliczu dynamicznego rozwoju technologii generatywnej sztucznej inteligencji, takich jak ChatGPT, wydawcy stoją przed licznymi wyzwaniami. Błędy w cytowaniach, ryzyko dezinformacji i brak kontroli nad treściami to tylko niektóre z problemów, które wymagają pilnego rozwiązania. Badanie Tow Center for Digital Journalism podkreśla konieczność stworzenia bardziej przejrzystych zasad współpracy pomiędzy firmami technologicznymi a wydawcami, a także rozwoju narzędzi, które będą w stanie wiernie oddawać kontekst i treść dziennikarską.

Na razie jednak, dla wydawców korzystających z ChatGPT lub mających nadzieję na poprawę swojego zasięgu dzięki tej technologii, pozostaje wiele znaków zapytania na temat przyszłości ich relacji z generatywną sztuczną inteligencją.

Share186Tweet116
Poprzedni artykuł

Kanadyjskie firmy medialne pozywają OpenAI

Następny artykuł

Jak korzystać z narzędzia „Image Playground” od Apple Intelligence

Następny artykuł
Jak korzystać z narzędzia "Image Playground" od Apple Intelligence

Jak korzystać z narzędzia "Image Playground" od Apple Intelligence

Zapraszamy

Polub nas i bądź na bieżąco

Ostatnie Wpisy

  • Premiera słuchawek Sony WH-1000XM6 już w przyszłym tygodniu 10 maja, 2025
  • Wyciekły pełne wymiary Samsunga Galaxy Z Fold7 – składany ekran z cieńszymi ramkami 10 maja, 2025
  • Samsung Galaxy Watch8 z nowym kształtem koperty – teraz bardziej zaokrąglony kwadrat 10 maja, 2025
  • Samsung Galaxy S25 FE może jednak otrzymać lepszy i wydajniejszy procesor 10 maja, 2025
  • Rozmowa z Jonym Ivem: o projektowaniu, Apple i odpowiedzialności twórców 10 maja, 2025

Informacje

  • Polityka prywatności
  • Redakcja
  • Współpraca
  • REDAKCJA
  • WSPÓŁPRACA
  • POLITYKA PRYWATNOŚCI

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

No Result
View All Result
  • Apple
  • Sztuczna inteligencja AI
  • Smartfony
  • Nauka i technika
  • Komputery & Tablety
  • Security
  • Nowinki
    • Recenzje
    • Poradniki
    • iDared Serwis
      • Serwis iPhone
      • Serwis MacBook
      • Serwis Telefonów Samsung
      • Serwis Telefonów Xiaomi