Sztuczna inteligencja generatywna może wydawać się magią, ale za kulisami jej rozwoju kryją się ogromne zespoły pracowników w firmach takich jak Google czy OpenAI. To specjaliści znani jako „inżynierowie promptów” i analitycy, którym powierza się zadanie oceniania dokładności odpowiedzi generowanych przez chatboty. Ich praca przyczynia się do ciągłego doskonalenia systemów opartych na sztucznej inteligencji.
Jednak nowe wytyczne wewnętrzne wprowadzone w Google, dotyczące projektu sztucznej inteligencji o nazwie Gemini, budzą obawy związane z potencjalnym zwiększeniem liczby nieścisłości w odpowiedziach udzielanych wrażliwych dziedzinach, takich jak zdrowie. Nowe zasady pracy, które wyciekły w dokumentach wewnętrznych, wskazują na to, że system może być mniej wiarygodny przy udzielaniu odpowiedzi na pytania o wysokim poziomie technicznej złożoności.
W dążeniu do poprawy Gemini, zespół współpracowników firmy outsourcingowej GlobalLogic, należącej do koncernu Hitachi, regularnie ocenia odpowiedzi generowane przez SI. Kluczowym kryterium tej oceny jest “prawdomówność” systemu, a pracownicy do niedawna mieli możliwość pomijania oceny odpowiedzi, które wykraczały poza ich specjalistyczną wiedzę. Dla przykładu, osoba bez wykształcenia medycznego mogła pominąć pytania dotyczące kardiologii.
Jednak w ubiegłym tygodniu GlobalLogic poinformowało o wprowadzeniu zmiany w wytycznych Google. Nowe reguły zabraniają pracownikom pomijania takich zadań, niezależnie od ich poziomu wiedzy w danym obszarze. Teraz pracownicy muszą oceniać każdą odpowiedź na podstawie fragmentów, które rozumieją, i zaznaczać w notatkach, że nie mają wystarczającej wiedzy specjalistycznej, aby ocenić resztę.
Zmiana ta spotkała się z krytyką, zwłaszcza w kontekście oceny wysoce technicznych odpowiedzi AI na tematy takie jak rzadkie choroby, gdzie brak odpowiedniego przygotowania może wprowadzić ryzyko błędnych ocen. „Miałem wrażenie, że możliwość pomijania miała służyć zwiększeniu dokładności przez przekazanie zadania komuś lepiej wykwalifikowanemu?” – zauważył jeden z pracowników w wewnętrznej korespondencji.
Aktualnie pracownicy mogą pominąć ocenę odpowiedzi jedynie w dwóch przypadkach: jeśli brak jest kluczowych informacji, takich jak pełna treść pytania lub odpowiedzi, albo jeśli zadanie zawiera szkodliwe treści wymagające specjalnych zgód na ich ocenę. Dla wielu specjalistów nowe zasady oznaczają dodatkowe wyzwania związane z próbą zapewnienia rzetelności odpowiedzi sztucznej inteligencji w dziedzinach, w których brakuje im odpowiednich kwalifikacji.
Zmiany wywołały zaniepokojenie wśród ekspertów i analityków, którzy obawiają się, że szeroka interpretacja i brak specjalistycznej wiedzy mogą prowadzić do przekazywania użytkownikom błędnych informacji na kluczowe tematy, takie jak opieka zdrowotna czy nauka. Google do chwili obecnej nie wydało oficjalnego komentarza w tej sprawie.
Poruszona kwestia ukazuje złożoność rozwijania sztucznej inteligencji oraz wyzwania stojące przed jej twórcami. Wprowadzenie takich zmian jest istotnym przypomnieniem, że tworzenie technologii wspierającej ludzi wymaga nie tylko zaawansowanych algorytmów, ale także dostępu do odpowiednich kompetencji i ludzkiej wiedzy. Czy zmiany w podejściu do pracy z Gemini wpłyną pozytywnie na rozwój sztucznej inteligencji, czy też odbije się to na jej wiarygodności? Czas pokaże.