Agentowe systemy sztucznej inteligencji coraz śmielej wkraczają w świat aplikacji SaaS (Software as a Service), redefiniując sposoby, w jakie firmy tworzą, wdrażają i wykorzystują oprogramowanie. Obserwujemy obecnie narodziny piątej fali mocy obliczeniowej, w której inteligentne, autonomiczne agentowe AI stają się nie tylko wsparciem, ale również samodzielnymi wykonawcami złożonych procesów biznesowych. Zgodnie z prognozami Gartnera, w ciągu najbliższych czterech lat aż 33% aplikacji SaaS zostanie zintegrowanych z agentami AI, mimo że obecnie liczba ta sięga zaledwie 1%.
W przeciwieństwie do klasycznych asystentów AI – takich jak znane już ChatGPT – systemy agentowe mają zdolność samodzielnego dążenia do określonych celów, uczenia się oraz integrowania z innymi systemami. Tego typu podejście wychodzi znacznie poza możliwości tradycyjnej robotyzacji procesów (RPA), która opiera się na sztywnych, deterministycznych regułach działania. Nowoczesne AI agentowe działają probabilistycznie i elastycznie, co pozwala na dynamiczną adaptację w miarę zmieniających się warunków i zapotrzebowań użytkownika.
Jednym z wyzwań, które niesie za sobą era agentowego AI, jest znacznie większe obciążenie infrastrukturalne. Dzisiejsze systemy SaaS działają w architekturze stateless, wykonując operacje CRUD (Create, Read, Update, Delete) na relacyjnych bazach danych przy około 10 tysiącach transakcji na sekundę. W nadchodzącej erze agentowej, gdzie każdy użytkownik może korzystać równolegle z wielu aktywnych agentów, systemy będą musiały przetwarzać nawet milion transakcji na sekundę. Wymaga to odejścia od logiki transakcyjnej i przejścia do konwersacyjnego modelu przetwarzania z pełną historią kontekstu.
Problematyczna okazuje się również statelessowość dużych modeli językowych – LLM (large language models), które nie „pamiętają” wcześniejszych interakcji bez kontekstu. Oznacza to, że każda nowa iteracja żądania musi być wysyłana razem z rosnącym dziennikiem wcześniejszych konwersacji. Gdy dzienniki te osiągną limity tokenów danego modelu, konieczne jest ich skracanie lub zastosowanie inteligentnego zarządzania kontekstem – co nie jest trywialnym zadaniem.
Systemy agentowe będą coraz częściej korzystać nie tylko z tekstowego wejścia, ale również z sygnałów w czasie rzeczywistym pochodzących z sensorów IoT, mikrofonów, kamer czy strumieni danych metrycznych. Wiąże się to z koniecznością błyskawicznego przetwarzania danych i przekierowywania ich do właściwych modeli bez przytłoczenia systemu – a to z kolei stawia wysokie wymagania przed komponentami odpowiedzialnymi za wydajność i koszt operacyjny.
A właśnie koszty działania systemów agentowych AI są znacznie wyższe niż klasycznych aplikacji. Relacyjne bazy danych wykonują zapytania z opóźnieniem rzędu 10-30 ms, gdy tymczasem LLM potrafią działać nawet 100 razy wolniej. Co więcej, koszt pojedynczej operacji w środowisku LLM może być od 10 000 aż do 850 000 razy wyższy niż klasyczny odczyt z bazy danych. Mimo obiecujących trendów (koszty LLM spadają nawet o 90% rocznie), bariera finansowa wciąż stanowi istotny czynnik blokujący szeroką adopcję.
Nie oznacza to jednak rezygnacji z ich wdrożenia. Firmy eksperymentują z różnorodnymi środowiskami uruchomieniowymi – chmurą publiczną, prywatną, a także lokalnie hostowanymi klastrami Kubernetes. Jednym z kluczowych wyzwań pozostaje jednak czas przejścia od prototypu do produkcji, który dla wielu organizacji przekracza osiem miesięcy, a ponad połowa projektów agentowych kończy się niepowodzeniem z powodu problemów z jakością danych, bezpieczeństwem czy brakiem gotowości technologicznej.
W długofalowej perspektywie agentowe AI nie zastąpią całkowicie aplikacji SaaS, ale będą je intensywnie uzupełniać. Ze względu na wysokie opóźnienia, nie nadają się do interakcji w czasie rzeczywistym, jednak świetnie sprawdzą się w bardziej złożonych, długoterminowych zadaniach analitycznych, komunikacyjnych czy operacyjnych. Interfejsy użytkownika przekształcą się w multimedialną przestrzeń interakcji – z rosnącym udziałem dźwięku i obrazu jako nośników komunikacji.
Jednym z najbardziej interesujących podejść do tworzenia platform agentowych jest propozycja firmy Akka. Marka stworzyła kompleksową architekturę dla usług agentowych, opartą na pięciu filarach: strumieniowych punktach dostępu, adapterach integrujących z bazami wektorowymi oraz LLM-ami, orkiestracji agentowej z możliwością udziału człowieka, bazie danych kontekstu (zarówno w pamięci, jak i trwałej), oraz zarządzaniu cyklem życia systemu w zgodzie z zasadami bezpieczeństwa i skalowalności.
Platforma Akka wyróżnia się podejściem event-driven do integracji z LLM – zamiast traktować modele językowe jako narzędzia do przetwarzania zbiorczego, obsługuje je w sposób nieblokujący, co pozwala na strumieniowe przesyłanie danych i podejmowanie natychmiastowych działań. Co ważne, system pozwala na współdzielenie zasobów obliczeniowych pomiędzy klasyczne mikroserwisy i usługi agentowe, zapewniając wysoką efektywność i unikając pułapek tzw. „wysp technologicznych”.
O skuteczności Akka świadczą wdrożenia u globalnych gigantów takich jak Amazon i Google (projekt open source SMILE), a także dynamiczny rozwój startupów takich jak Horn (AI do wideokonferencji) czy Coho AI (szybsze wejście na rynek o 75%). Firma zarówno wspiera skalowanie systemów do poziomu 10 milionów transakcji na sekundę, jak i oferuje zestaw narzędzi do wieloregionalnego wdrażania z uwzględnieniem zgodności regulacyjnej.
Przyszłość agentowego AI w aplikacjach SaaS rysuje się jako złożony miks innowacji inżynierskich, optymalizacji kosztów i koncepcji wykorzystania danych. Dobrze zaprojektowane platformy agentowe mogą przynieść firmom przewagę strategiczną, jeżeli tylko uda się przezwyciężyć wyzwania w obszarze pamięci kontekstowej, współbieżności, bezpieczeństwa oraz wydajności. Jedno jest pewne – agentowa transformacja już się rozpoczęła i tylko od gotowości zespołów technologicznych zależy, jak szybko uda się ją wdrożyć z sukcesem.