Jedna z największych agencji prasowych w Indiach, Asian News International (ANI), podjęła kroki prawne przeciwko firmie OpenAI, co może stać się kluczowym precedensem dotyczącym wykorzystywania treści objętych prawami autorskimi przez firmy zajmujące się sztuczną inteligencją w Indiach — najludniejszym kraju świata.
Pozew dotyczący naruszenia praw autorskich
Agencja ANI wniosła pozew do Sądu Najwyższego w Delhi, oskarżając OpenAI o nielegalne wykorzystanie jej treści do szkolenia swoich modeli AI oraz generowanie fałszywych informacji, które były przypisywane agencji. To pierwszy raz, kiedy indyjska organizacja medialna skierowała pozew przeciwko OpenAI w sprawie naruszenia praw autorskich.
Podczas wtorkowego przesłuchania, sędzia Amit Bansal wezwał OpenAI do odpowiedzi, po tym jak firma potwierdziła, że ChatGPT nie ma dostępu do strony internetowej ANI. Sąd oznajmił, że na tym etapie nie ma podstaw do wydania nakazu tymczasowego, ponieważ sprawa wymaga dokładniejszej analizy, będąc „złożonym zagadnieniem”. Kolejne przesłuchanie zaplanowano na styczeń.
Stanowisko OpenAI
Rzecznik OpenAI zaznaczył, że firma dokłada wszelkich starań, aby wspierać organizacje medialne w zakresie projektowania swoich produktów oraz współpracuje z wieloma wydawcami na całym świecie, w tym w Indiach, aby wspólnie szukać rozwiązań i reagować na uwagi.
Pozew ANI wpisuje się w globalną tendencję narastającego oporu wobec firm zajmujących się sztuczną inteligencją, które wykorzystują materiały chronione prawami autorskimi. OpenAI boryka się obecnie z podobnymi pozwami w Stanach Zjednoczonych (ponad tuzin spraw), Kanadzie oraz w Niemczech.
Argumenty prawników
Podczas przesłuchania, adwokat OpenAI, Amit Sibal, bronił praktyk firmy, argumentując, że prawo autorskie nie chroni faktów, a ChatGPT umożliwia właścicielom stron internetowych wyłączenie ich danych z procesu zbierania informacji. Dodał również, że OpenAI nie posiada serwerów w Indiach, co jego zdaniem ogranicza jurysdykcję indyjskich sądów w tej sprawie.
Z kolei prawnik ANI, Sidhant Kumar z kancelarii UNUM Law, stwierdził, że fakt publicznego dostępu do treści nie oznacza, że można te treści swobodnie wykorzystywać. Wyraził szczególne zaniepokojenie przypadkami, w których ChatGPT przypisał ANI zmyślone wywiady, w tym fałszywą rozmowę z Rahulem Gandhim, liderem opozycji w Indiach.
Potencjalne skutki „halucynacji” AI
W swoim pozwie ANI argumentuje, że takie „halucynacje” generowane przez sztuczną inteligencję mogą poważnie zaszkodzić reputacji agencji. Rozpowszechnianie fałszywych informacji, przypisanych rzetelnym mediom, może prowadzić do chaosu społecznego i podważać zaufanie do źródeł informacji.
Sąd planuje powołać niezależnego eksperta, który doradzi w kwestii praw autorskich związanych z wykorzystaniem ogólnodostępnych treści przez modele AI. Kolejne przesłuchania mają również obejmować techniczne aspekty rozprzestrzeniania się treści informacyjnych na różnych platformach.
Globalny kontekst problemów prawnych AI
Sprawa ta jest kolejnym krokiem w globalnej debacie na temat tego, w jaki sposób firmy technologiczne mogą używać treści chronionych prawami autorskimi do trenowania systemów sztucznej inteligencji. W obliczu rosnącej liczby pozwów, firmy takie jak OpenAI będą musiały dostosować swoje praktyki i znaleźć nowe sposoby na współpracę z właścicielami treści, aby uniknąć dalszych sporów prawnych.
Na razie pozostaje jednak pytanie, jakie kroki podejmą sądy, aby zbalansować innowacyjność z ochroną praw autorów treści, zwłaszcza w kontekście tak szybko rozwijającej się technologii, jaką jest sztuczna inteligencja.