OpenAI pod lupą w Europie – kolejna skarga na ChatGPT
OpenAI ponownie znalazło się w centrum kontrowersji związanych z ochroną prywatności w Europie. Tym razem problem dotyczy generowania przez ChatGPT fałszywych i potencjalnie szkodliwych informacji na temat osób prywatnych. Organizacja zajmująca się ochroną praw do prywatności, Noyb, wspiera Norwega, który ze zdziwieniem odkrył, że chatbot wygenerował całkowicie nieprawdziwe informacje, sugerujące, jakoby został skazany za zabójstwo dwójki swoich dzieci i próbę zamordowania trzeciego.
Problem „halucynacji” w AI i prawo do korekty danych
Nie jest to pierwsza sytuacja, w której ChatGPT generuje błędne informacje na temat osób. W przeszłości pojawiały się przypadki, w których chatbot podawał nieprawdziwe daty urodzenia lub inne istotne biograficzne szczegóły. Kłopot polega na tym, że OpenAI nie oferuje użytkownikom żadnej formalnej metody poprawiania błędnych informacji, które chatbot może na ich temat wygenerować. Dotychczasowa praktyka firmy polegała na blokowaniu odpowiedzi na podobne zapytania, jednak zgodnie z europejskimi przepisami o ochronie danych (GDPR), obywatele Unii Europejskiej mają prawo do poprawiania swoich danych osobowych.
Prawo to nakłada również obowiązek na dostawców technologii, takich jak OpenAI, aby zapewnić, że przetwarzane i udostępniane dane są zgodne z prawdą. Właśnie na tę kwestię w nowej skardze zwraca uwagę Noyb.
GDPR kontra OpenAI – prawne konsekwencje
Jak podkreśla Joakim Söderberg, prawnik ds. ochrony danych w Noyb, przepisy GDPR jasno określają konieczność zapewnienia dokładności danych osobowych. Ostrzega, że niewystarczające jest umieszczanie małego komunikatu informującego użytkowników o możliwości błędów generowanych przez AI. Udostępnianie fałszywych informacji i jednoczesne dodanie przypisu, że „mogą one być błędne”, nie zwalnia firmy z odpowiedzialności prawnej.
Regulatorzy mogą nałożyć na OpenAI grzywny wynoszące nawet 4% rocznego globalnego przychodu firmy w przypadku potwierdzonych naruszeń GDPR. Co więcej, władze mogą wymusić zmiany w sposobie funkcjonowania narzędzi AI, tak jak miało to miejsce w 2023 roku, kiedy włoski organ ochrony danych tymczasowo zablokował dostęp do ChatGPT w kraju. Efektem tej interwencji było wprowadzenie nowych informacji dla użytkowników na temat przetwarzania ich danych oraz późniejsze nałożenie na OpenAI kary w wysokości 15 milionów euro.
Europejscy regulatorzy ostrożni wobec GenAI
Chociaż sprawa wzbudziła duże zainteresowanie, europejskie organy nadzorujące ochronę prywatności przyjęły ostrożne podejście w analizie naruszeń związanych ze sztuczną inteligencją. Na przykład dwa lata temu irlandzka Komisja Ochrony Danych przestrzegała przed pochopnym zakazywaniem narzędzi AI, sugerując, że regulatorzy powinni dokładnie przeanalizować, jak prawo ma się do tych technologii.
Tymczasem dochodzenie prowadzone przez polski organ ochrony danych dotyczące skargi na ChatGPT, które rozpoczęło się we wrześniu 2023 roku, nadal nie przyniosło żadnych rozstrzygnięć. Wobec tego Noyb stara się zmusić organy nadzoru do bardziej zdecydowanych działań, podnosząc problem niebezpiecznych halucynacji generowanych przez sztuczną inteligencję.
Drastyczny przypadek fałszerstwa w ChatGPT
Jednym z dowodów przedkładanych w nowej skardze Noyb jest przypadek Norwega Arve Hjalmar Holmena, którego chatbot oskarżył o morderstwo swoich dzieci. Sam zainteresowany wraz z przedstawicielami Noyb przeanalizował sprawę, próbując znaleźć źródło tej brutalnej dezinformacji, jednak żadne archiwa prasowe ani zapisy sądowe nie potwierdzają takich wydarzeń.
Co ciekawe, ChatGPT poprawnie podał inne fakty na temat Holmena, takie jak ilość i płeć jego dzieci oraz miejsce zamieszkania. Tym bardziej szokujące jest jednak to, że na bazie tych prawdziwych informacji sztuczna inteligencja dorzuciła całkowicie fikcyjną, niezwykle poważną historię.
OpenAI zmienia model – fałszywe informacje znikają?
Po aktualizacji modelu AI stojącego za ChatGPT, problem fałszywych oskarżeń wobec Holmena wydaje się zniknąć. Nowy mechanizm sprawia, że chatbot korzysta z zasobów internetowych do wyszukiwania informacji o osobach zamiast generować je na podstawie wewnętrznych pustych miejsc w bazie danych.
Ekipa Noyb przeprowadziła ponowne testy, zadając ChatGPT pytanie „Kim jest Arve Hjalmar Holmen?”. Wynik był niejednoznaczny – raz chatbot podał zdjęcia przypadkowych osób zaczerpnięte m.in. z Instagrama czy SoundClouda, innym razem zidentyfikował Holmena jako norweskiego muzyka i autora albumu „Honky Tonk Inferno”.
To wszystko budzi jednak obawy. Noyb oraz sam poszkodowany obawiają się, że mimo zmiany w działaniu modelu, błędna i potencjalnie niebezpieczna informacja mogła zostać wewnętrznie zachowana w bazie AI, co oznacza ryzyko dalszych konsekwencji. Przedstawiciel organizacji dodaje, że ukrywanie fałszywych informacji przed użytkownikami nie rozwiązuje problemu – wciąż są one przetwarzane wewnętrznie przez system.
Skarga przekazana norweskiemu organowi ochrony danych
Noyb oficjalnie złożył skargę przeciwko OpenAI w Norwegii, licząc na to, że tamtejszy urząd zajmie się sprawą. Organizacja argumentuje, że oddział OpenAI w Irlandii nie jest jedyną jednostką odpowiedzialną za decyzje wpływające na użytkowników w Europie, co może otworzyć drogę do dochodzenia w Norwegii.
Jednak podobna skarga złożona przez Noyb w Austrii w kwietniu 2024 roku została przekazana do Irlandii, ponieważ OpenAI zmieniło wtedy swoją strukturę organizacyjną, wskazując na irlandzką filię jako dostawcę usług ChatGPT dla europejskich użytkowników. Nie jest jasne, czy norweski regulator uzna się za kompetentny do podjęcia sprawy, czy również przekaże ją do Irlandii – gdzie wcześniejsze dochodzenie nadal nie przyniosło rozstrzygnięcia.
ChatGPT i dezinformacja – nierozwiązany problem
Pomimo poprawionego modelu AI i nowych mechanizmów wyszukiwania informacji w internecie, sprawa OpenAI rzuca światło na szerszy problem związany z halucynacjami modeli językowych. Niezależnie od zastosowanych poprawek, ryzyko generowania dezinformacji wciąż istnieje, co może prowadzić do szkód wizerunkowych i prawnych dla osób prywatnych.
„Firmy AI powinny przestać udawać, że zasady GDPR ich nie dotyczą, gdy tak naprawdę w pełni podlegają tym regulacjom. Jeśli problem halucynacji AI nie zostanie rozwiązany, osoby prywatne mogą ponieść ogromne szkody reputacyjne” – podsumowuje Kleanthi Sardeli, prawnik ds. ochrony danych w Noyb.
Przypadek Holmena to tylko jeden z wielu przykładów, gdzie ChatGPT generuje całkowicie fałszywe, a czasem wręcz niebezpieczne informacje o osobach. Problem pozostaje otwarty – czy europejscy regulatorzy zdecydują się w końcu podjąć działania przeciwko OpenAI?