Nowy model AI od Google: PaliGemma 2 i kontrowersje związane z wykrywaniem emocji
Google ogłosiło wprowadzenie nowej generacji modeli AI z serii PaliGemma 2, które wyróżniają się jedną szczególną cechą: zdolnością do „identyfikowania” emocji. Ta funkcjonalność, choć brzmi imponująco, budzi jednocześnie liczne kontrowersje wśród ekspertów zajmujących się etyką danych i sztuczną inteligencją.
Rozpoznawanie emocji i analiza obrazu
PaliGemma 2 to zaawansowane narzędzie do analizy obrazów, które może generować opisy oraz odpowiadać na pytania dotyczące osób widocznych na zdjęciach. Jak podkreśla Google, w przeciwieństwie do tradycyjnych systemów rozpoznawania obiektów, model ten potrafi opisywać działania, emocje i całościowy kontekst przedstawianej sceny. To podejście ma przyczyniać się do bardziej wnikliwej analizy sytuacji przedstawionych na obrazach.
Jednak zdolność interpretacji emocji przez sztuczną inteligencję wymaga dodatkowego dostrajania modelu do tego celu. Sama funkcjonalność nie działa „od razu po wyjęciu z pudełka”. Dla niektórych ekspertów jest to jednak wystarczający powód do niepokoju. Możliwość „czytania” emocji przez AI wywołuje pytania natury etycznej i praktycznej.
Krytyka naukowa i etyczna
Sandra Wachter, profesor etyki danych i sztucznej inteligencji z Oxford Internet Institute, w wywiadzie podkreśla, że idea wykrywania emocji jest problematyczna. „Zakładanie, że możemy naprawdę ‚czytać’ emocje innych ludzi, przypomina trochę pytanie Magicznej Kuli o radę” – podkreśla Wachter.
Na przestrzeni lat zarówno startupy, jak i giganci technologiczni próbowali opracować systemy AI, które mogłyby rozpoznawać emocje. Takie technologie miałyby być wykorzystywane w szkoleniach sprzedażowych czy zapobieganiu wypadkom. Problem w tym, że naukowe podstawy tych systemów są wątpliwe. Większość z nich opiera się na badaniach psychologa Paula Ekmana, który sugerował, że ludzie na całym świecie dzielą sześć podstawowych emocji: złość, zaskoczenie, obrzydzenie, radość, strach i smutek. Jednak późniejsze badania wykazały, że w wyrażaniu emocji występują znaczne różnice kulturowe, co podważa uniwersalność tych założeń.
Mike Cook, badacz z King’s College London, zauważa, że interpretacja emocji jest niezwykle złożonym procesem. „Choć my sami często wierzymy, że potrafimy odczytywać emocje innych ludzi, to nie jest to coś, co można w pełni rozwiązać za pomocą sztucznej inteligencji” – dodaje Cook. W praktyce systemy AI próbujące wykrywać emocje są często obarczone błędami i uprzedzeniami projektantów.
Uprzedzenia i ryzyko dyskryminacji
Jednym z najważniejszych problemów związanych z systemami wykrywania emocji jest ich podatność na uprzedzenia. Badania MIT z 2020 roku wykazały, że algorytmy analizujące twarze mogą rozwijać niezamierzone preferencje. Na przykład modele AI mogą lepiej rozpoznawać uśmiechy, co skutkuje obniżoną dokładnością w analizie innych emocji. Nowsze badania sugerują, że systemy analizujące emocje przypisują więcej negatywnych emocji twarzom osób czarnoskórych w porównaniu z twarzami osób białoskórych.
Google twierdzi, że przeprowadziło „rozległe testy” mające na celu ocenę poziomu uprzedzeń demograficznych w modelu PaliGemma 2. Jednak firma nie przedstawiła pełnej listy używanych punktów odniesienia ani szczegółowych wyników testów. Jedynym ujawnionym benchmarkiem jest FairFace, baza zdjęć przedstawiająca tysiące twarzy ludzi różnych ras. Choć Google chwali się dobrymi wynikami na tej platformie, niektórzy badacze krytykują FairFace jako narzędzie uwzględniające jedynie ograniczoną liczbę grup etnicznych.
Heidy Khlaaf, główna naukowiec AI z AI Now Institute, podkreśla, że emocje są głęboko subiektywne i osadzone w kontekście kulturowym. „Badania pokazują, że nie można jednoznacznie wnioskować o emocjach wyłącznie na podstawie cech twarzy, niezależnie od użycia AI” – mówi Khlaaf.
Obawy regulacyjne i potencjalne nadużycia
Technologie wykrywania emocji budzą także obawy regulatorów w różnych krajach. W Unii Europejskiej trwają prace nad AI Act, który zakazuje użycia systemów rozpoznawania emocji w szkołach i przez pracodawców, choć ich stosowanie przez służby mundurowe pozostaje dozwolone.
Otwarte modele takie jak PaliGemma 2, które można w łatwy sposób pobierać z platform takich jak Hugging Face, rodzą dodatkowe ryzyko nadużyć. Eksperci ostrzegają, że ich niewłaściwe wykorzystanie może prowadzić do realnych szkód społecznych. Heidy Khlaaf zauważa, że pseudonaukowe założenia mogą w rezultacie pogłębić dyskryminację wobec grup marginalizowanych, szczególnie w takich obszarach jak egzekwowanie prawa, rekrutacja pracowników czy zarządzanie granicami.
W odpowiedzi na te obawy Google deklaruje, że przeprowadziło „solidne oceny” modeli PaliGemma 2 pod kątem etyki i bezpieczeństwa, w tym bezpieczeństwa dzieci i treści. Niemniej jednak Sandra Wachter pozostaje sceptyczna. „Odpowiedzialna innowacja wymaga myślenia o konsekwencjach od samego początku aż do końca cyklu życia produktu” – podkreśla. Wachter dodaje, że potencjalne zagrożenia związane z takimi systemami mogą prowadzić do dystopijnej przyszłości, w której emocje decydują o tym, czy ktoś dostanie pracę, kredyt, czy zostanie przyjęty na uczelnię.
Podsumowanie
Nowe modele AI od Google, choć technologicznie zaawansowane, wywołują wiele pytań i obaw dotyczących ich etycznego zastosowania. Wykrywanie emocji przez AI pozostaje kontrowersyjne – zarówno pod względem naukowym, jak i praktycznym. W miarę jak te technologie stają się coraz bardziej dostępne, kluczowe będzie znalezienie równowagi między postępem a odpowiedzialnym wykorzystaniem, które nie naruszy praw i godności ludzi.