W jednej z aktualnych spraw sądowych dotyczących własności intelektualnej, firma Anthropic – twórca popularnego chatbota Claude – przyznała się do poważnego błędu. Przedstawiciel prawny przedsiębiorstwa oficjalnie potwierdził, że podczas przygotowywania ekspertyzy sądowej wykorzystano cytat wygenerowany przez Claude’a, który okazał się nieprawdziwy. Cytat ten posiadał błędny tytuł oraz fałszywe nazwiska autorów. Jak wskazano w złożonym oświadczeniu przed sądem w północnej Kalifornii, była to „szczera pomyłka w cytowaniu”, a nie intencjonalne wprowadzenie sądu w błąd.
To wydarzenie ponownie rozpala debatę dotyczącą wykorzystania narzędzi sztucznej inteligencji przy tworzeniu dokumentacji prawniczej. Zespół Anthropic wyjaśnił, że standardowa procedura ręcznej weryfikacji cytatów nie wykryła błędów popełnionych przez Claude’a. Co więcej, podobne przypadki niedokładności pojawiły się w innych częściach tego samego raportu eksperckiego. Sąd federalny już wcześniej wezwał Anthropic do udzielenia wyjaśnień po oskarżeniach ze strony Universal Music Group i innych wydawców muzycznych, którzy sposobili się do konfrontacji prawnej z firmą o naruszenie praw autorskich przez wykorzystanie utworów muzycznych do trenowania modeli AI.
Ekspertka biorąca udział w sprawie, Olivia Chen – będąca jednocześnie pracownikiem Anthropic – została oskarżona przez strony pozywające o użycie sfałszowanych źródeł generowanych przez Claude’a w swoim zeznaniu. Sprawa zyskała rozgłos nie tylko ze względu na charakter zarzutów, ale również dlatego, że coraz częściej sądy spotykają się z nadużywaniem AI w przygotowywaniu akt sprawy. Błędy tego typu – polegające na generowaniu nieistniejących artykułów czy cytowaniu fikcyjnych precedensów – stają się poważnym wyzwaniem dla wymiaru sprawiedliwości.
Nie jest to odosobniony przypadek. W tym samym tygodniu kalifornijski sędzia publicznie skrytykował dwa renomowane zespoły prawnicze za przedstawienie „fałszywych badań stworzonych przez AI”. Kilka miesięcy wcześniej w Australii ujawniono, że lokalny prawnik przygotował dokumentację sądową z pomocą ChatGPT, który wygenerował cytaty do nieistniejących spraw sądowych. Te incydenty skłaniają do refleksji nad granicami zastosowań AI i potrzebą ich etycznego oraz odpowiedzialnego wdrażania.
Mimo licznych kontrowersji i niebezpieczeństw związanych z wykorzystaniem sztucznej inteligencji w sektorze prawnym, firmy zajmujące się automatyzacją prac kancelarii prawnych wciąż przyciągają ogromne inwestycje. Przykładem może być startup Harvey, którego technologia oparta na generatywnej AI wspiera adwokatów i radców prawnych w analizie danych oraz tworzeniu dokumentów. Według najnowszych doniesień, firma prowadzi rozmowy, by pozyskać ponad 250 milionów dolarów inwestycji przy wycenie sięgającej nawet 5 miliardów dolarów.
Rozwiązania oparte na AI z pewnością odgrywają coraz większą rolę w świecie prawa, oferując szybkość, automatyzację i potencjalne obniżenie kosztów usług prawnych. Niemniej jednak każdy tego typu incydent pokazuje jak niezbędna jest ostrożność, dokładna weryfikacja i świadomość ograniczeń tych narzędzi. Zaufanie do systemu prawnego opiera się między innymi na rzetelności przedstawianych dowodów i argumentów. Wkraczając na ścieżkę cyfrowej transformacji, sektor prawny musi łączyć innowację z bezwzględną odpowiedzialnością.