Coraz więcej zespołów budujących agenty AI odkrywa, że złożone, nadmiernie rozbudowane architektury nie zawsze dają lepsze efekty. Przykłady z praktyki pokazują, że minimalistyczne podejście oparte na narzędziach Uniksa — przede wszystkim prostej powłoce BASH i modularnych narzędziach tekstowych — potrafi przewyższać systemy obwarowane wieloma warstwami kontekstu i specjalistycznymi rozszerzeniami.
Dlaczego prostota ma znaczenie
W miarę jak modele językowe stają się coraz bardziej „sprytne” i potrafią obsłużyć większe okna kontekstowe, rośnie argument za tym, by ufać im w podejmowaniu decyzji, zamiast obudowywać je nadmiarem narzędzi i metadanych. Takie wnioski płyną z wewnętrznych projektów firm i doświadczeń społeczności open source: mniej kontekstu i prostsze interfejsy często oznaczają mniejszą kruchość systemu, niższe koszty utrzymania i wyższą trafność odpowiedzi.
Przypadek Vercela — d0 i powrót do BASH
Firma Vercel testowała różne podejścia budowy agenta plikowego, nazwanego d0, którego zadaniem było odpowiadanie na pytania związane z wewnętrznym repozytorium danych (pliki YAML, Markdown, JSON). Początkowo agent otrzymał bogaty zestaw narzędzi, rozbudowane zarządzanie kontekstem i duże ilości metadanych. Efekt był jednak daleki od ideału: system działał, ale był wolny, kruchy i wymagał ciągłej konserwacji.
W odpowiedzi zespół Vercel zdecydował się na radykalne uproszczenie. Zamiast warstwy narzędzi i nadmiaru prompt engineering, agent otrzymał jedną, jasno zdefiniowaną funkcjonalność — możliwość wykonywania poleceń BASH. Mógł bezpośrednio czytać pliki i używać klasycznych narzędzi takich jak grep, cat czy ls. Rezultat: prostsze zarządzanie, mniejsze zużycie zasobów i poprawa dokładności odpowiedzi. Jak podsumował Andrew Qu, szef oprogramowania w Vercel: „what if BASH is all you need?”.
Unixowska filozofia jako wzorzec
To podejście wpisuje się w klasyczną filozofię Uniksa: buduj z prostych, tekstowych narzędzi, z których każde robi jedną rzecz dobrze i które można łączyć w potoki. BASH — Bourne Again SHell — jest naturalnym interfejsem do takiego stylu pracy, pozwalając łączyć programy i przetwarzać wyniki jako zwykły tekst. W kontekście agentów AI takie podejście upraszcza integrację i często eliminuje potrzebę tworzenia skomplikowanych, dedykowanych narzędzi.
Efekty: mniej danych, lepsze wyniki
W wersji d0v2 Vercel usunął około 80% dodatkowych informacji, które wcześniej uważano za niezbędne. Silnik BASH działa w postaci pakietu NPM o nazwie bash-tool, udostępnionego jako open source. W architekturze zastosowano model Claude Opus 4.5 poprzez AI SDK oraz środowisko Vercel Sandbox do eksploracji kontekstu. Obsługę, monitoring i routowanie żądań realizuje Vercel Gateway, a integrację z aplikacją — trasa API oparta na Next.js oraz Vercel Slack Bolt.
Dodatkowo dane indeksowano do warstwy semantycznej (cube), która pełniła jedną, konkretną rolę: ujednolicenia źródeł danych i udostępnienia ich przez jeden punkt dostępu (np. jako zapytanie SQL). Dzięki temu wiele kontekstu stało się „już czytelne” dla modelu: definicje wymiarów, obliczenia miar i relacje łączeń zapewniały wystarczającą informację, aby model mógł bezpośrednio odczytywać i syntetyzować potrzebne odpowiedzi.
Refleksje zespołu
Z perspektywy zespołu problemem było nadmierne „przykrywanie” modelu narzędziami i rozbudowanymi promptami zamiast pozwolić mu robić to, do czego jest dobry: analizować tekst i podejmować decyzje. Andrew Qu przywołał też klasyczne narzędzie grep jako przykład tego, że rozwiązania sprzed dekad wciąż dokładnie spełniają swoją rolę. Zbyt duże ograniczanie przestrzeni działania modelu okazało się w praktyce szkodliwe — zwłaszcza przy wykorzystaniu nowego modelu Opus 4.5, który sam podejmował lepsze wybory, gdy nie był nadmiernie sterowany.
Również Guillermo Rauch, CEO firmy, zachęcał do przypomnienia sobie podstaw Uniksa — systemów plików, powłok, procesów i linii poleceń — i przyjęcia abstrakcji, do których modele są „dostrojone”. W jego słowach: „Don’t fight the models, embrace the abstractions they’re tuned for. BASH is all you need.”
Iteracyjne podejście „Ralph Wiggum” od Anthropic
Podobną prostotę wprowadziła też firma Anthropic, która udostępniła wtyczkę „Ralph Wiggum” — w praktyce prosty skrypt BASH opierający się na pętli do/while. Koncepcja polega na tym, aby dać modelowi pojedynczy plik z zadaniem i pozwolić mu iteracyjnie poprawiać rezultat aż do osiągnięcia celu. Zamiast każdorazowego ręcznego przeglądu wyników przez człowieka, praca zapisywana jest do plików i historii git, a model sam odczytuje swoje wcześniejsze próby i ulepsza je.
Autor wtyczki, open source’owiec Geoffrey Huntley, streszcza ideę jednym zdaniem: „Failures are data”. W praktyce metoda okazała się zaskakująco skuteczna: na hackathonie technika ta posłużyła do przeniesienia narzędzia webowego z Pythona na TypeScript. Po nocnym uruchomieniu procesu badacze znaleźli ponad 1 000 commitów, sześć przekonwertowanych baz kodu i niemal w pełni funkcjonujący program. Anthropic podał, że w jednym z przykładów udało się zrealizować kontraktową pracę o wartości 50 000 USD przy kosztach API rzędu 297 USD — czyli w przybliżeniu około 210 000 zł za pracę wartą około 1 250 zł.
Firma informuje też, że w ciągu trzech miesięcy podejście to posłużyło do stworzenia „całego języka programowania” — przykład pokazuje, że metoda sprawdza się zwłaszcza przy dobrze zdefiniowanych zadaniach, które nie wymagają bieżącej interwencji człowieka.
Co z tego wynika
Doświadczenia Vercela i społeczności open source wskazują, że budowanie agentów AI nie zawsze musi polegać na dokładaniu kolejnych narzędzi i warstw kontekstowych. W wielu scenariuszach lepsze efekty daje zaufanie modelowi i udostępnienie mu prostego, stabilnego interfejsu do danych — takiego jak powłoka BASH i sprawdzone narzędzia tekstowe. Takie podejście zmniejsza koszty operacyjne, upraszcza utrzymanie i potrafi zwiększyć trafność rezultatów, jednocześnie korzystając z naturalnych mocnych stron współczesnych modeli językowych.
