Rak płuc pozostaje jednym z najtrudniejszych do wyleczenia nowotworów, a wczesne rozpoznanie choroby ma kluczowe znaczenie dla skuteczności leczenia. Tradycyjne metody diagnostyczne, takie jak niskodawkowa tomografia komputerowa (LDCT), pomagają w identyfikacji podejrzanych zmian, jednak ich skuteczność bywa ograniczona ze względu na wysoką liczbę wyników fałszywie dodatnich oraz trudności w identyfikacji innych krytycznych przypadkowych odkryć, takich jak schorzenia sercowo-naczyniowe. Co więcej, zaledwie poniżej 10% pacjentów kwalifikuje się do przesiewowych badań LDCT na całym świecie, głównie z powodu niedoboru specjalistów w dziedzinie radiologii.
Przełomowe rozwiązanie może jednak diametralnie zmienić ten krajobraz. W opublikowanym niedawno badaniu w prestiżowym czasopiśmie Nature Communications opisano nowatorski model sztucznej inteligencji nowej generacji. Opracowany przez interdyscyplinarny zespół naukowców z Rensselaer Polytechnic Institute (RPI), Uniwersytetu Wake Forest oraz szpitala Massachusetts General Hospital, model ten wykorzystuje podejście multimodalne i wielozadaniowe, co umożliwia jednoczesne analizowanie wielu źródeł danych – od skanów CT, przez raporty radiologiczne, po czynniki ryzyka i wyniki kliniczne.
Nowy model AI potrafi przewidzieć ryzyko raka płuc o 20% skuteczniej niż tradycyjne metody, jednocześnie poprawiając predykcję chorób układu sercowo-naczyniowego o 10%. To pierwsze podejście w historii, które skutecznie integruje tak szeroki zakres danych medycznych w celu realizacji ponad tuzina powiązanych zadań diagnostycznych naraz. Autorzy badania podkreślają, że taki model służy nie tylko do detekcji nowotworów, lecz również wspomaga wykrywanie schorzeń współistniejących, co znacząco zwiększa potencjalną wartość kliniczną w codziennej praktyce.
Dr Chuang Niu, naukowiec z RPI i pierwszy autor artykułu, wraz z zespołem badaczy, w tym dr Ge Wangiem, prof. Christopherem Whitlowem oraz dr Mannudeepe Kalią, stanowią przykład skutecznej współpracy różnych dziedzin nauki i technologii. W osiągnięciu tych rezultatów ogromną rolę odegrały zaawansowane zasoby obliczeniowe – zarówno infrastruktura RPI, jak i nowojorski ośrodek Empire AI – które pozwoliły przetworzyć ogromne ilości danych i przyspieszyć rozwój modelu.
Jedną z największych zalet tzw. modeli fundamentowych w medycynie jest ich skalowalność. Gdy raz zostaną wytrenowane na obszernych bazach danych, takich jak skany przesiewowe CT, można je dostosowywać do nowych zadań w innych gałęziach diagnostyki. Oznacza to, że podobne modele mogą z czasem wspierać rozpoznawanie nie tylko nowotworów, lecz również innych schorzeń w dziedzinach, gdzie dostęp do wyspecjalizowanych danych pozostaje ograniczony.
Jak podkreślił dr Wang, zespół rozszerza obecnie pracę nad jeszcze bardziej rozbudowanym modelem AI, wykorzystując coraz większe zbiory danych multimodalnych. Połączenie sił pomiędzy uczelniami technicznymi, akademickimi wydziałami medycznymi i placówkami badawczymi podkreśla nową erę współpracy, w której sztuczna inteligencja staje się integralnym elementem badań biomedycznych. W efekcie tego partnerstwa rodzą się nie tylko innowacje technologiczne, lecz przede wszystkim przełomowe podejścia, które mogą znacząco wpłynąć na wyniki leczenia i wcześniejsze wykrywanie groźnych chorób.
Perspektywa, jaką przedstawia to badanie, jest niezwykle obiecująca. Dzięki sztucznej inteligencji diagnostyka może stać się nie tylko szybsza i dokładniejsza, ale też bardziej dostępna – szczególnie w kontekście globalnych wyzwań, jakimi są brak radiologów czy ograniczony dostęp do zaawansowanych technik obrazowania medycznego. Widzimy tu realną szansę na wejście w nową erę opieki zdrowotnej, w której dane i technologia wspierają lekarzy, poprawiają komfort pacjentów i zwiększają skuteczność leczenia.