W obliczu przeciążonych systemów opieki zdrowotnej i coraz dłuższych kolejek do lekarzy, coraz więcej osób korzysta z chatbotów opartych na sztucznej inteligencji, takich jak ChatGPT, jako narzędzia do samodzielnej oceny stanu zdrowia. Według najnowszych badań, już co szósty dorosły Amerykanin przynajmniej raz w miesiącu zasięga porady zdrowotnej u chatbota.
Tego typu rozwiązania zyskują na popularności nie tylko z powodu wygody, ale również rosnących kosztów prywatnej opieki medycznej. Chatboty oferują błyskawiczne odpowiedzi, dostępne przez całą dobę, bez konieczności umawiania wizyty. Jednak najnowsze badania prowadzone przez zespół naukowców pod przewodnictwem Uniwersytetu Oksfordzkiego poddają w wątpliwość skuteczność i bezpieczeństwo tego typu narzędzi w kontekście zdrowia publicznego.
W badaniu wzięło udział około 1300 osób z Wielkiej Brytanii, które poproszono o analizę przygotowanych przez lekarzy scenariuszy medycznych. Uczestnicy mieli za zadanie zidentyfikować potencjalną jednostkę chorobową oraz określić możliwe dalsze działania – np. czy powinni udać się do lekarza rodzinnego, na izbę przyjęć, czy też zignorować objawy. Badani mogli korzystać zarówno z własnych metod poszukiwania informacji, jak i chatbotów wykorzystujących modele AI, takich jak GPT-4o (ChatGPT), Command R+ od firmy Cohere oraz Llama 3 autorstwa Meta.
Wyniki badania okazały się zaskakujące i niepokojące zarazem. Uczestnicy korzystający z chatbotów AI byli mniej skuteczni w identyfikacji zagrożeń zdrowotnych niż ci, którzy polegali na tradycyjnych źródłach informacji lub własnej ocenie. Co więcej, osoby korzystające z AI częściej nie doceniały powagi sytuacji i podejmowały niewłaściwe decyzje dotyczące dalszego postępowania zdrowotnego.
Dr Adam Mahdi, dyrektor ds. badań podyplomowych w Oxford Internet Institute i współautor badania, podkreśla, że główną barierą skuteczności chatbotów była słaba jakość komunikacji pomiędzy użytkownikiem a systemem. Uczestnicy często nie potrafili odpowiednio sformułować swoich zapytań, pomijając kluczowe szczegóły, co skutkowało niedokładnymi lub trudnymi do interpretacji odpowiedziami. Sam Mahdi dodaje również, że „odpowiedzi udzielane przez chatboty często zawierały sprzeczne informacje – dobre rekomendacje mieszały się z tymi zupełnie nieodpowiednimi”.
Obecne metody oceny skuteczności takich narzędzi, zdaniem badaczy, nie oddają złożoności interakcji człowieka z AI. Porównując to do badań klinicznych nowych leków, Mahdi stanowczo podkreśla: podobnie jak każdy preparat medyczny, także chatboty powinny zostać gruntownie przebadane w warunkach rzeczywistych, zanim zostaną szeroko wdrożone jako narzędzia wspomagające decyzje zdrowotne.
Mimo tych ostrzeżeń, firmy technologiczne coraz śmielej inwestują w rozwój AI w sektorze zdrowia. Apple pracuje nad cyfrowym agentem zdrowotnym, który będzie analizował dane dotyczące ćwiczeń fizycznych, diety i snu. Amazon eksploruje zastosowanie AI do analizy baz danych zawierających tzw. społeczne determinanty zdrowia. Z kolei Microsoft rozwija systemy wspierające personel medyczny poprzez automatyczne przetwarzanie wiadomości od pacjentów.
Jednak nie wszyscy są przekonani, że AI jest już gotowa na tak odpowiedzialne role w systemie ochrony zdrowia. Amerykańskie Towarzystwo Medyczne przestrzega lekarzy przed poleganiem na chatbotach w kontekście decyzji klinicznych. Nawet największe firmy odpowiedzialne za rozwój sztucznej inteligencji — w tym OpenAI — oficjalnie odradzają wykorzystywanie swoich narzędzi do diagnozowania chorób.
W kontekście tych doniesień, użytkownicy powinni zachować szczególną ostrożność. Choć AI może być cennym wsparciem m.in. przy monitorowaniu stylu życia czy przypomnieniach o aktywności fizycznej, to decyzje dotyczące zdrowia i diagnostyki nadal powinny być podejmowane w oparciu o rzetelną wiedzę medyczną i konsultacje z wykwalifikowanymi specjalistami. Chatboty to narzędzia – nie substytut lekarza.