W ostatnich miesiącach dyskusja o wykorzystaniu dużych modeli językowych w ochronie zdrowia przybrała na intensywności. Pojawienie się specjalnej usługi ChatGPT Health — zapowiedzianej jako bezpieczniejsze, prywatne środowisko do rozmów o zdrowiu — odsłania zarówno obietnice, jak i realne ryzyka związane z używaniem chatbotów medycznych. Z jednej strony technologia może ułatwić pacjentom dostęp do informacji i odciążyć system opieki zdrowotnej, z drugiej — błąd wygenerowany przez model może wprowadzić w błąd i zaszkodzić pacjentowi.
Przykładowy przypadek ilustruje skalę problemu: dr Sina Bari, praktykujący chirurg i lider ds. rozwiązań AI w firmie iMerit, opisał sytuację, w której pacjent przyniósł wydrukowaną rozmowę z ChatGPT twierdzącą, że przepisany lek niesie „45% ryzyka zatoru płucnego”. Po weryfikacji dr Bari ustalił, że cytowana statystyka pochodziła z pracy dotyczącej wąskiej podgrupy pacjentów z gruźlicą i nie miała zastosowania do konkretnego przypadku. Ten rodzaj tzw. „halucynacji” modelu — czyli generowania niepewnych lub wyrwanych z kontekstu informacji — jest jednym z głównych wyróżników ryzyka w medycznym użyciu AI.
Mimo takich incydentów dr Bari podchodzi do uruchomienia ChatGPT Health z optymizmem. Nowa usługa ma się pojawić w najbliższych tygodniach i oferować prywatniejsze środowisko dialogu — wiadomości użytkowników nie będą wykorzystywane jako dane treningowe dla modelu. Dodatkowo użytkownicy będą mogli przesyłać swoje dane medyczne oraz synchronizować czaty z aplikacjami typu Apple Health czy MyFitnessPal, aby otrzymać bardziej spersonalizowane porady. W opinii Bari formalizacja takich funkcji i wprowadzenie zabezpieczeń może zwiększyć użyteczność narzędzia dla pacjentów.
Jednak możliwość przesyłania dokumentów i synchronizacji danych budzi poważne obawy o bezpieczeństwo i zgodność z regulacjami. Itai Schwartz, współzałożyciel firmy zajmującej się zapobieganiem utracie danych (MIND), zwraca uwagę, że w praktyce oznacza to przepływ danych medycznych z podmiotów objętych HIPAA do dostawców, którzy mogą nie być objęci tymi przepisami. To z kolei stawia pytanie, w jaki sposób regulatorzy podejdą do takiego transferu danych i jakie standardy zostaną egzekwowane.
Skala zainteresowania medycznymi zapytaniami do chatbotów jest znaczna: według danych podawanych przy okazji premiery, ponad 230 milionów osób każdego tygodnia rozmawia z ChatGPT o kwestiach zdrowotnych. Dla inwestorów i menedżerów rynku zdrowia to jeden z największych przypadków użycia technologii — stąd też ruch w kierunku stworzenia bezpieczniejszej, zoptymalizowanej wersji modelu przeznaczonej do pytań medycznych, jak wskazuje Andrew Brackin, partner w firmie Gradient inwestującej w technologie zdrowotne.
Jednocześnie problem halucynacji modeli nie ustępuje. Zgodnie z oceną prowadzoną przez Vectara w ramach ich Factual Consistency Evaluation Model, model GPT-5 wykazywał większą skłonność do halucynacji niż wiele konkurencyjnych modeli od Google i Anthropic. Firmy AI starają się jednak przedstawiać rozwiązania adresujące konkretne potrzeby systemu opieki zdrowotnej: równolegle do zapowiedzi ChatGPT Health, inny gracz branżowy — Anthropic — ogłosił własny produkt zorientowany na sektor zdrowotny.
Dla części ekspertów na pierwszym planie stoi jednak problem dostępu do opieki, a nie sam błąd AI. Dr Nigam Shah, profesor medycyny na Stanford i główny naukowiec danych w Stanford Health Care, przypomina, że w wielu systemach opieki podstawowa konsultacja u lekarza pierwszego kontaktu wiąże się z oczekiwaniem sięgającym 3–6 miesięcy. W takiej sytuacji pacjenci stają przed wyborem: czekać pół roku na wizytę u lekarza czy skorzystać z narzędzia, które nie jest lekarzem, ale potrafi udzielić pewnych wskazówek od razu.
Według dr Shaha bardziej obiecującym kierunkiem jest wdrażanie AI po stronie dostawców usług medycznych. Badania i raporty branżowe wielokrotnie wskazują, że obowiązki administracyjne mogą pochłaniać około połowy czasu pracy lekarza podstawowej opieki zdrowotnej, ograniczając liczbę pacjentów, których można przyjąć. Automatyzacja takich zadań mogłaby zwiększyć dostępność lekarzy i zmniejszyć zapotrzebowanie na samodzielne korzystanie z chatbotów przez pacjentów.
Na Stanford opracowywany jest system ChatEHR — narzędzie zintegrowane z elektroniczną dokumentacją medyczną (EHR), które ma ułatwiać lekarzom przegląd i wykorzystanie danych pacjenta. Wstępne testy opisują to jako sposób na wyciągnięcie kluczowych informacji „na wierzch”, dzięki czemu specjaliści mogą poświęcić więcej czasu rozmowie z pacjentem i ustaleniu diagnozy, zamiast żmudnego przeszukiwania dokumentacji.
Również firmy takie jak Anthropic koncentrują się na zastosowaniach dla klinicystów i ubezpieczycieli. W prezentacji na konferencji branżowej zaprezentowano, jak narzędzia AI mogą skrócić czas poświęcany na zadania administracyjne, na przykład przygotowywanie wniosków o uprzednią autoryzację u płatników. Jak wskazał Mike Krieger, szef produktu Anthropic, jeśli systemy te skrócą 20–30 minut na każdym takim przypadku, suma zaoszczędzonego czasu może być znacząca dla placówek przetwarzających setki czy tysiące takich spraw tygodniowo.
W miarę jak AI i medycyna coraz bardziej się przenikają, pojawia się nieuchronne napięcie między dwoma światami: podstawową motywacją lekarzy jest ochrona i dobro pacjenta, podczas gdy firmy technologiczne odpowiadają przede wszystkim przed swoimi akcjonariuszami. Jak przypomina dr Bari, to napięcie jest istotne — pacjenci polegają na lekarzach, aby ci pozostawali sceptyczni i ostrożni, ponieważ to chroni ich przed potencjalnymi szkodami wynikającymi z nadmiernego zaufania do technologii.