W odcinku podcastu poświęconym sieciom i operacjom omawiano, jak tak zwane agentowe (agentic) systemy sztucznej inteligencji mogą pomóc zespołom zajmującym się sieciami poradzić sobie z rosnącą złożonością, odbudować zaufanie do narzędzi i zapobiegać poważnym awariom. Rozmówca zwraca uwagę, że wdrożenie AI do środowisk sieciowych wymaga nie tylko modeli, lecz także spójnej, programowalnej infrastruktury i danych dostępnych w czasie rzeczywistym.
Rozszerzanie portfolio przez IBM — między innymi przejęcia Red Hata i HashiCorpa oraz ogłoszone plany nabycia Confluent — wpisuje się według Sanila Nambiara, lidera ds. współpracy z klientami w obszarze AI dla sieci w IBM, w strategię budowania fundamentów potrzebnych do wdrożeń AI. „Strategia, oczywiście, to chmura hybrydowa, dane i AI oraz automatyzacja działające razem jako architektura” — mówi Nambiar. W praktyce firma skupia się na trzech „platformach fundamentalnych”, z których każda dostarcza niezbędnych możliwości dla infrastruktury AI: Red Hat zapewnia spójny runtime między chmurą a zasobami lokalnymi, HashiCorp daje kontrolę cyklu życia i automatyzację opartą na politykach, a Confluent ma dostarczać dostęp do kontekstowych danych w czasie rzeczywistym, niezbędnych dla AI.
Główne wyzwania nowoczesnych operacji sieciowych
Nambiar podkreśla, że złożoność współczesnych, rozproszonych i definiowanych programowo sieci przekroczyła możliwości ludzkiej percepcji. W rozmowach z klientami wyłoniły się trzy powtarzające się problemy: lawina danych, fragmentacja i silosy danych utrudniające zrozumienie stanu sieci oraz luka kompetencyjna — zwłaszcza gdy narzędzia monitorujące stają się tak zaawansowane, że wymagają głębokiej wiedzy specjalistycznej. Doświadczeni inżynierowie operacyjni posiadają często intuicyjną, „plemienną” wiedzę operacyjną, którą trudno przekazać nowym pracownikom. W efekcie, jak mówi Nambiar, „nie można rzucać na to problemu jedynie ludźmi”.
Zaufanie — największa przeszkoda dla AI w sieciach
Najważniejszym wyzwaniem w adopcji AI w środowiskach produkcyjnych jest zaufanie. Fragmentacja danych i brak przepływu informacji w czasie rzeczywistym podważają wiarygodność rekomendacji AI. „W środowiskach produkcyjnych koszt pomyłki jest naprawdę, naprawdę wysoki” — ostrzega Nambiar. Błędna rekomendacja może spowodować awarię, naruszenie SLA lub nieodwracalne zmiany, więc pytanie, które zadają klienci, nie brzmi tylko „Co może zrobić wasze AI?”, ale „Czy mogę mu zaufać, kiedy to będzie miało znaczenie?”
Jak agentowe AI może zapobiegać awariom
Z perspektywy Nambiara, który ma 20 lat doświadczenia w obszarze sieci i operacji, poważne awarie rzadko pojawiają się nagle — zazwyczaj poprzedza je seria subtelnych sygnałów: wzrosty pakietów odrzuconych lub retransmisji, rosnąca zmienność opóźnień, narastanie kolejek czy narastające obciążenie zasobów. Często najwięcej czasu traci się po wystąpieniu incydentu na zbieranie kontekstu, odtwarzanie linii czasu, ustalanie zmian i wyznaczanie zespołów interwencyjnych. Agent AI, odpowiednio zaprojektowany, może skondensować godziny pracy inżynierów do sekund, zbierając kontekst i wskazując prawdopodobne przyczyny szybciej niż tradycyjne procedury.
IBM Network Intelligence — rozwiązanie „natywne dla sieci”
We wrześniu IBM wprowadził produkt o nazwie IBM Network Intelligence, opisany przez firmę jako „natywne dla sieci” rozwiązanie AI. Został on zaprojektowany z myślą o zasadach budowania zaufania i o tzw. „rusztowaniach” dla dużych modeli językowych (LLM), czyli mechanizmach zapewniających, że do konkretnego zadania używany jest właściwy typ narzędzia AI. W praktyce rozwiązanie łączy rozumowanie LLM z modelami bazowymi dla danych czasowych: LLM-y mają ograniczenia w rozumieniu struktur czasowych i zależności przyczynowo-skutkowych występujących w sieciach, natomiast modele czasowo‑szeregowe potrafią uchwycić te wzorce. Architektura, o której mówi Nambiar, oddziela te warstwy — model czasowo‑szeregowy jest wstępnie trenowany na domenie (np. sieci MPLS, centra danych czy domeny radiowej), generując precyzyjne obserwacje, które następnie są przekazywane do LLM-a wspierającego rozumowanie, z dostępem do agentów, kontekstu, dokumentów zasadniczych i dynamicznego wywoływania narzędzi. Takie podejście ma zwiększyć dokładność i zapewnić „rusztowanie zaufania”, które umożliwi stosowanie AI w operacjach.
Aby lepiej zrozumieć wyzwania operacji sieciowych w erze AI oraz rolę młodszych inżynierów w przyszłości z agentami AI, warto odsłuchać cały odcinek rozmowy z Sanilem Nambiarem, gdzie omawia on szczegóły i praktyczne przykłady wdrożeń.
Autor: Heather Joslyn — data publikacji: 7 stycznia 2026

