TOKIO — Podczas otwierającego przemówienia na Open Source Summit Japan Jim Zemlin, dyrektor wykonawczy Linux Foundation, stwierdził, że choć sztuczna inteligencja prawdopodobnie nie znajduje się w pełnym „kredowym bańce”, to modele językowe dużej skali (LLM) mogą nią być.
Jako dowód podał ogromne nakłady kapitałowe: według szacunków Morgan Stanley do 2028 roku na centra danych dla AI ma zostać wydane 3 biliony dolarów (ok. 12,6 biliona zł). Około połowa tej kwoty ma przypaść hyperscalerom takim jak Amazon, Google, Meta i Microsoft. Zemlin podkreślił, że to inwestycje większe niż PKB wielu małych państw, co stawia większość firm i nawet całych krajów poza zasięgiem konkurowania przy tak kosztownych wdrożeniach infrastruktury.
Równie istotnym wyzwaniem jest rosnące zapotrzebowanie na energię związane z wykonywaniem zadań inferencyjnych. Zemlin przywołał dane pokazujące skok użycia AI w Google — wzrost 50-krotny rok do roku, do poziomu z 9,7 biliona tokenów w kwietniu 2024 r. do ponad 480 bilionów tokenów w kwietniu 2025 r. Cytując wypowiedź prezesa AWS Andy’ego Jassy’ego, zauważył, że największym ograniczeniem rozwoju AI jest dziś energia. Z tego powodu boom AI jest — według Zemlina — w dużej mierze historią o sprzęcie: GPU, zasilaniu i centrach danych, a nie tylko o algorytmach i modelach.
Mimo dominującej roli sprzętu prawdziwą przewagę dla otwartego oprogramowania widzi on w warstwach modelu i infrastruktury programowej. W mijającym roku pojawiły się modele o otwartych wagach, m.in. z Chin (np. DeepSeek), które znacznie zbliżyły się wydajnością do komercyjnych modeli frontier. Te otwarte modele służą też jako baza do destylacji mniejszych, branżowych wariantów — przykładowo TinyLlama oparty na Llama 3 czy DistilBERT wywodzący się z BERT.
Ekonomia AI
Połączenie otwartych modeli i technik destylacji zmienia ekonomię sektora AI. Zemlin przywołał analizę głównego ekonomisty Linux Foundation, Franka Nagle’a, która pokazuje, że otwarte modele są znacznie tańsze i niemal tak samo zdolne jak modele zamknięte, ale te ostatnie nadal zgarniają około 95% przychodów rynkowych. W efekcie – według tej analizy – roczne nadmierne wydatki na systemy proprietary mogą sięgać 24,8 miliarda dolarów (ok. 104,2 mld zł).
Na tej podstawie Zemlin podsumował: „Myślę, że nie jesteśmy w bańce AI. Ale możemy być w bańce LLM”. W jego ocenie 2026 rok ma przynieść „erę wydajności i efektywności”, w której dominować będą otwarte ekosystemy i bardziej ekonomiczne wdrożenia.
Czy PARK zastąpi LAMP?
Zemlin wskazał na wyłaniający się stos technologiczny, który nazwał PARK — od PyTorch, AI, Ray i Kubernetes. Ray to otwartoźródłowy framework do rozproszonych obliczeń upraszczający skalowanie obciążeń AI i ML. Zdaniem Zemlina PARK szybko staje się domyślną platformą do wdrażania AI na skalę przemysłową, podobnie jak niegdyś LAMP zdefiniował architekturę wczesnego internetu.
Porównał to do ewolucji jądra Linuxa, gdzie globalna współpraca programistów pociągała za sobą optymalizacje dla różnorodnego sprzętu. W ekosystemie AI otwarte narzędzia takie jak vLLM czy DeepSpeed wyciskają więcej wydajności z GPU, obniżając zużycie energii i koszt na token. „To jest to, w czym open source jest naprawdę dobry” — powiedział Zemlin — „poprawianie ceny za token i ceny za kilowatogodzinę”.
Następnie omówił warstwę „agentyczną” AI — systemy planujące, rozumujące i działające autonomicznie. Choć ta część stosu nadal dojrzewa, zaczyna się formalizować wokół otwartych protokołów, takich jak Model Context Protocol (MCP) i Agent2Agent (A2A). Obecnie jedynie mniejszość organizacji używa MCP w produkcji, lecz Zemlin przewiduje, że 2026 rok przyniesie falę automatyzacji korporacyjnej: wieloagentowe workflowy, nauczone orkiestracje, ramy walidacji oraz mieszanki systemów deterministycznych i niedeterministycznych. „Agentyczne AI nie musi być determinowane rozmiarem modelu — chodzi o architekturę rozwiązania” — podkreślił.
Otwartość jako czynnik zmiany
Kończąc wystąpienie, Zemlin zaznaczył, że mimo medialnej euforii „AI nie zmieniło się aż tak bardzo” i że prawdziwa zmiana nastąpi dzięki otwartej współpracy. Open source — jego zdaniem — przeciwdziała uzależnieniu od dostawców, zwiększa zaufanie i przejrzystość oraz dostarcza „uniwersalnych łączników” niezbędnych do interoperacyjnych systemów AI, od treningu przez inferencję po orkiestrację. Linux Foundation zamierza być jednym z centrów tej pracy, współpracując z globalnymi laboratoriami badawczymi i partnerami przemysłowymi, a Zemlin zapowiedział kolejne istotne ogłoszenia w najbliższym czasie.

