W ostatnich dniach obserwujemy prawdziwy wysyp premier niewielkich modeli sztucznej inteligencji, które – mimo relatywnie małych rozmiarów – zaskakują swoimi możliwościami. Wśród nich szczególnie wyróżnia się nowa propozycja od instytutu badawczego Ai2 – model Olmo 2 1B. Wyróżnia go nie tylko zaawansowana architektura i imponujące parametry, ale przede wszystkim fakt, że jest on w pełni otwartoźródłowy, a jego kod źródłowy oraz zestawy danych są szeroko dostępne dla społeczności deweloperskiej.
Olmo 2 1B to model językowy o mocy 1 miliarda parametrów, co czyni go jednym z bardziej kompaktowych rozwiązań na rynku. Parametry te, zwane też wagami, określają sposób, w jaki model reaguje na dane wejściowe i przetwarza język. Choć liczba parametrów może wydawać się stosunkowo niewielka w porównaniu do gigantów z setkami miliardów wag, to Olmo 2 1B osiąga doskonałe wyniki na popularnych benchmarkach, wyprzedzając rozwiązania takich gigantów jak Google (Gemma 3 1B), Meta (Llama 3.2 1B) czy Alibaba (Qwen 2.5 1.5B).
Dostępność tego modelu dla każdego, niezależnie od zaplecza sprzętowego, jest prawdziwym przełomem dla ekosystemu open source w świecie AI. Dzięki wykorzystaniu licencji Apache 2.0, Olmo 2 1B może być używany komercyjnie, badawczo lub edukacyjnie bez większych ograniczeń. Co więcej, Ai2 udostępnia nie tylko gotowy model, ale również pełen kod treningowy oraz dwa zestawy danych – Olmo-mix-1124 i Dolmino-mix-1124 – co pozwala każdemu zainteresowanemu użytkownikowi odtworzyć model od zera.
Ogromną zaletą mniejszych modeli, takich jak Olmo 2 1B, jest to, że nie wymagają one zaawansowanej, kosztownej infrastruktury sprzętowej. Działają bez problemu nawet na nowoczesnych laptopach czy wydajniejszych smartfonach, co sprawia, że są dostępne dla szerszego grona użytkowników – od profesjonalnych deweloperów po pasjonatów czy studentów. Ta dostępność technologii otwiera nowe drzwi dla eksperymentowania i wykorzystywania AI w domowych lub edukacyjnych środowiskach bez potrzeby inwestowania w drogie układy GPU.
Wyniki testów, które przedstawiają możliwości modelu, są wyjątkowo imponujące. Olmo 2 1B został wytrenowany na zbiorze zawierającym aż 4 biliony tokenów pochodzących z różnorodnych źródeł – zarówno tych publicznie dostępnych, jak i generowanych przez AI oraz przygotowywanych ręcznie. Taka różnorodność oraz rozmiar danych przekładają się na wysoką jakość rozumienia tekstu i generowanych wypowiedzi.
Na przykład w teście GSM8K, który mierzy zdolności arytmetyczne modeli językowych, Olmo 2 1B uzyskał lepsze wyniki niż konkurencyjne modele od największych firm technologicznych. Co więcej, w benchmarku TruthfulQA – oceniającym prawdziwość i dokładność odpowiedzi – Olmo 2 1B również wychodzi na prowadzenie. Te rezultaty pokazują, że mały rozmiarem, ale dobrze wytrenowany model może być nie tylko konkurencyjny, ale i lepszy jakościowo.
Warto jednak pamiętać, że mimo wszystkich swoich zalet, Olmo 2 1B nie jest pozbawiony ryzyk. Jak podkreśla Ai2, model – jak każdy inny system AI – może generować nieprawidłowe, wrażliwe, a nawet szkodliwe treści. Ze względu na te potencjalne zagrożenia, twórcy zalecają, aby model nie był wykorzystywany w środowiskach komercyjnych bez odpowiednich zabezpieczeń i mechanizmów kontroli treści.
Olmo 2 1B to model, który może znacząco wpłynąć na dostępność komunikacyjnej sztucznej inteligencji dla użytkowników na całym świecie. Otwiera nowe możliwości rozwoju, nauki i eksperymentowania z AI bez potrzeby posiadania wysokobudżetowej infrastruktury. To kolejny krok w stronę demokracji technologicznej, gdzie każdy – niezależnie od zasobów – ma dostęp do najbardziej innowacyjnych rozwiązań.