Sztuczna inteligencja wkracza coraz śmielej do medycyny, oferując rozwiązania, które mogą nie tylko ułatwić pracę lekarzy, ale także realnie pomóc w ratowaniu życia. Najnowsze badania opublikowane w czasopiśmie „JAMA Network Open” pokazują, że algorytmy AI są w stanie zidentyfikować pacjentów zagrożonych samobójstwem podczas standardowych wizyt lekarskich. Dzięki tym danym lekarze mogą przeprowadzać bardziej precyzyjne oceny ryzyka, co może znacząco wpłynąć na poprawę działań prewencyjnych. Z badań wynika, że system wspierany przez sztuczną inteligencję zwiększył liczbę ocen ryzyka samobójczego do 42% w przypadkach, które zostały oznaczone jako potencjalnie niebezpieczne. To ogromny postęp w porównaniu do tradycyjnego podejścia.
System nazwany VSAIL (skrót od Vanderbilt Suicide Attempt and Ideation Likelihood) został opracowany przez Uniwersytet Medyczny Vanderbilta i zaprojektowany tak, by był praktycznym narzędziem w intensywnym środowisku klinicznym. Kluczowym elementem innowacji było to, że algorytmy AI oznaczały jedynie 8% wizyt pacjentów do dodatkowej oceny, co sprawia, iż system jest możliwy do wdrożenia w normalnych warunkach funkcjonowania przychodni i szpitali. „Większość osób, które popełniają samobójstwo, miało kontakt z lekarzem w ciągu roku poprzedzającego ich śmierć, często z powodów niezwiązanych z problemami psychicznymi,” powiedział dr Colin Walsh, jeden z autorów projektu. „Prowadzenie uniwersalnych badań przesiewowych w każdym przypadku jest niepraktyczne. Dlatego stworzyliśmy VSAIL, aby pomóc lekarzom zidentyfikować najbardziej zagrożone osoby i przeprowadzić celowane rozmowy diagnostyczne.”
W badaniu przeprowadzonym na oddziałach neurologicznych przetestowano dwie różne metody powiadamiania lekarzy. Pierwsza polegała na emitowaniu wyskakujących alertów, które przerywały standardowy tok pracy medyka, wymuszając natychmiastową reakcję. Druga metoda była bardziej pasywna i ograniczała się do wyświetlania informacji o ryzyku w kartotece pacjenta, bez aktywnego angażowania uwagi lekarza. Wyniki jednoznacznie wskazały, że bardziej inwazyjne alerty były skuteczniejsze – doprowadzały do oceny ryzyka samobójczego w 42% przypadków, podczas gdy system pasywny osiągał zaledwie 4% skuteczności.
Problem, który system pomaga rozwiązać, jest szczególnie palący – wskaźniki samobójstw w Stanach Zjednoczonych rosną od dekad. Szacuje się, że rocznie z powodu samobójstw umiera 14,2 osób na każde 100 tysięcy mieszkańców, co czyni ten problem jedenastą najczęstszą przyczyną zgonów w kraju. Co więcej, badania wskazują, że aż 77% osób, które popełniły samobójstwo, miało kontakt z lekarzami pierwszego kontaktu w ostatnim roku przed śmiercią. To podkreśla, jak ogromny potencjał kryje się w narzędziach takich jak VSAIL. „Automatyczne oznaczanie jedynie 8% wizyt pacjentów sprawia, że wdrożenie działań prewencyjnych staje się realne nawet w bardzo zajętych ośrodkach medycznych,” dodał dr Walsh.
Podczas sześciomiesięcznego badania przeanalizowano 7,732 wizyty pacjentów, z czego w 596 przypadkach system wygenerował alerty sugerujące konieczność dodatkowego badania pod kątem ryzyka samobójstwa. Warto zauważyć, że w okresie kontrolnym, żaden z pacjentów w obu grupach badawczych (zarówno „aktywnych”, jak i „pasywnych”) nie zgłaszał myśli samobójczych ani nie podejmował prób samobójczych – co może świadczyć o skuteczności wczesnego interweniowania.
Mimo skuteczności alertów, naukowcy zwracają uwagę na potencjalne ryzyko tzw. „przeciążenia alertami”. Częste powiadomienia, szczególnie w dynamicznym środowisku medycznym, mogą prowadzić do ich ignorowania przez specjalistów. „Systemy opieki zdrowotnej powinny szukać równowagi pomiędzy skutecznością alertów przerywających a ich możliwym negatywnym wpływem na codzienną pracę lekarzy,” podkreślił Walsh. „Nasze badania sugerują jednak, że rozsądnie zaprojektowane powiadomienia mogą znacząco zwiększyć identyfikację osób potrzebujących wsparcia w zakresie prewencji samobójstw.”
Opierając się na obiecujących wynikach, zespół badawczy sugeruje, że podobne podejście można zastosować w innych dziedzinach medycyny. Rozwiązanie to mogłoby stworzyć szerszą siatkę bezpieczeństwa, dzięki której zidentyfikowanie pacjentów zagrożonych byłoby możliwe w ramach rutynowej opieki zdrowotnej. W kontekście rosnącego zastosowania narzędzi AI w służbie zdrowia, ten projekt pokazuje, jak przemyślane użycie technologii może odpowiedzieć na jedno z największych wyzwań w profilaktyce zdrowia psychicznego.